Desnudar chicas enviando solo una fotografía es la actividad principal de un canal de Telegram que ofrece este servicio de manera gratuita y con opciones de pago a través de un bot.
El bot usa inteligencia artificial ofreciendo resultados prácticamente instantáneos y tan realistas que podrían llevar a cabo extorsiones o incluso bullying por personas con mentes perversas.
El procedimiento es realmente sencillo: utilizan un bot que procesa la imagen que enviamos en apenas unos segundos. Los creadores del canal ahora ofrecen una opción de pago para unos resultados mas realistas y sin esperas. Todo ello con monedas virtuales.
El usuario no necesita conocimientos previos
El canal que se mantiene activo, y que por razones obvias no vamos a desvelar, ofrece este servicio a cambio de que nos unamos a un canal principal. Con ese sencillo proceso, cualquier usuario puede capturar y enviar la imagen de una chica para que la devuelva completamente desnuda.
El resultado ofrece una marca de agua y un procesado al 50% para que podamos observar la eficacia del servicio. El usuario que quiera optar por una conversión completa, deberá abonar una cantidad que ronda 1,50 euros aproximadamente haciendo la conversión.
Todo este proceso no requiere intervención humana ni conocimientos técnicos, como sí puede ocurrir con otro software con técnicas similares. Esto es lo que ha producido que su crecimiento aumente potencialmente, obteniendo más de 56.000 miembros mientras escribimos estas líneas.
DeepNude, un software eliminado que podría ser utilizado en Telegram
A mediados del 2019, Vice publicó el terrible uso de la aplicación DeepNude. Esta app era capaz de desnudar a una chica simplemente aportando una imagen de ella.
Las fotografías en ropa interior o de baño ofrecían unos resultados más creíbles. El procesado de imagen eliminaba por completo la vestimenta, aunque con resultados no muy óptimos. La técnica utilizada actualmente ha mejorado los resultados, dando una sensación de realismo casi perfecto.
El servicio que ofrece este canal es muy similar a lo que ofrecía la aplicación -ya retirada- DeepNude. Según un estudio realizado por Sensity -empresa de ciberseguridad visual- el canal de origen ruso podría utilizar parte del software original para el tratamiento de las imágenes.
Los usuarios usan el bot principalmente en mujeres anónimas y conocidas
Mas de 100.000 mujeres podrían haber sido víctimas de este procesado de imagen. La mayoría son personas anónimas, aunque también se han encontrado chicas conocidas en el mundo del streamers, influencers y famosas de mayor perfil. Según apunta el informa y recogido por ElPaís.
El número podría ser muy superior, ya que los datos contrastados corresponden al canal principal. Posiblemente existan otros grupos paralelos privados o con menor repercusión en el que no ha sido posible trazar el número real o aproximado de las mujeres que han sido utilizadas para este fin.
Seguramente muchas de ellas no sabrán que algunas de sus fotografías compartidas en redes sociales como Instagram o por alguna aplicación de mensajería directa como WhatsApp han acabado en estos lugares.
Por desgracia, el informe también habla de imágenes de menores, lo que confirmaría el interés por contenidos pedófilos por parte de algunos usuarios.
Extorsiones y bullyng
El uso de este tipo de herramientas puede dar lugar a extorsiones o acosos escolares. Prácticamente con cualquier imagen inocente que encontremos en redes sociales de la víctima, podría ser suficiente para comenzar este tipo de ataques contra su persona.
El daño que podría causar a cada una de ellas podría ser extremadamente grave, motivo por el que este tipo de herramientas pueden ser un autentico peligro en manos de alguien que quiera hacer daño a otra persona. Sobre todo por su facilidad de uso y sin conocimientos previos.
Las Fakes News corren como la pólvora entre los chat de WhatsApp o en redes sociales sin pararnos unos segundos a confirmar la veracidad de la noticia. Con las DeepFakes ocurre exactamente lo mismo, provocando quizás un daño irreparable sobre la víctima.