Aunque cada vez es más común escuchar que la Inteligencia Artificial está presente en varios aspectos de la vida del ser humano, el caso demuestra otra de las polémicas por el mal uso que personas le dan a estas herramientas.
La historia de la joven demuestra la violencia de género producida por los ‘deepfakes’. Según la empresa antifraude SEON se trata de «un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona».
Hace algunos años ya se hablaba del tema, especialmente porque esta tecnología se presta para hacer estafas por llamadas telefónicas. No obstante, esta también es utilizada de manera negativa por personas que crean desnudos de mujeres sin su consentimiento.
En su caso, la joven dijo que desconocidos tomaron fotos de sus redes sociales y pagaron para que, con Inteligencia Artificial, pudiesen «crear» desnudos de ella y difundirlos en Internet.
«No puedo describir lo que me ha pasado en las últimas 48 horas (…) un usuario de Twitter me envió fotografías en las que originalmente estaba vestida, totalmente vestida y las colocaron a través de una inteligencia artificial para editarme desnuda«, explicó la usuaria por medio del video.
Tras esto, la mujer explicó que sus redes sociales se llenaron de mensajes directos de personas que le enviaban sus fotos editadas.
«Yo no vendo contenido. Nada de eso es real. Todo esto es muy desagradable. Todos los comentarios eran realmente horribles«, manifestó.
Frente a esto varios usuarios demuestran su constante preocupación, especialmente por cómo la inteligencia artificial se está utilizando con el fin de violentar contra una persona.
Frases como «es realmente preocupante», «tengo mucho miedo de que pueda pasarme» o «lamento mucho que estas situaciones se presenten» llenaron los videos de denuncia publicados por la joven.
Cabe resaltar que este no es el primer caso que sucede. Varias mujeres fueron víctimas de estas prácticas. Entre ellas la streamer QTCinderella, quien hace unos meses informó por medio de sus redes que habían colocado su rostro en un video pornográfico.
Aunque trató de demandar, lamentablemente no pudo llegar a un acuerdo o a un proceso formal debido a que son muy pocos los lugares que tienen leyes puntuales sobre el ‘deepfake’ y contenidos asociados.
¿Qué hacer si es víctima del ‘deepfake’?
Lo primero es recurrir a las autoridades pertinentes. Si usted sospecha que fue víctima de un montaje en el que su integridad se ve comprometida, puede denunciarlo en la sección de delitos informáticos.
Desde ahí, la Policía podrá tomar el caso y tomar las medidas necesarias.
Por otro lado, también puede tomar medidas con la herramienta Take it Down, la cual le permite a cada persona indicar eliminar una foto o archivo forma automática.
Esta se creó en conjunto con Centro Nacional para Menores Desaparecidos y Explotados (Ncmec) de Estados Unidos y tiene el fin de evitar la propagación de material pornográfico de menores, así como el de cualquier archivo que atente contra la integridad de una persona.