top of page
Foto del escritorBlanca Lilia Ibarra

El INAI, Aliado de las Mujeres en Tiempos de las Deepfake

Actualizado: 4 ene

Por Blanca Lilia Ibarra

Durante mucho tiempo, las mujeres hemos emprendido la lucha colectiva por la conquista de nuestros derechos. Sobra decir que no fue ni es una tarea fácil. La resistencia del patriarcado cede cada vez que las mujeres conquistamos nuevas áreas profesionales, políticas y académicas que en el pasado nos fueron negadas. Sin embargo, no es suficiente porque conforme los tiempos avanzan, también se crean nuevas formas de violencia en nuestro perjuicio.


Por citar un ejemplo, conforme a los datos obtenidos en el Módulo sobre Ciberacoso del 2022 elaborado por el INEGI, se advierte que a nivel nacional 9.8 millones de mujeres sufrieron ciberacoso. Esta cifra es alarmante ya que, además de revelar un número elevado de víctimas de acoso en línea, acontece en un momento de revolución informática caracterizada por posibles usos abusivos y faltos de ética de la inteligencia artificial.


El uso de algoritmos, entendido como un conjunto de reglas o una secuencia de operaciones lógicas que proporcionan instrucciones para que las máquinas tomen decisiones o actúen de determinada manera, genera potenciales riesgos para vulnerar a las mujeres en torno a su intimidad, que representa un espacio sobre el cual la lucha por su respeto es constante.


Cada día resultan más comunes las denuncias públicas de mujeres que señalan ser víctimas de alteración no consensuada de sus fotografías para distribuirlas en línea. Algunas, incluso, se han enterado mucho tiempo después de que esa circunstancia les afectó. Dicho fenómeno es conocido como deep fake, que comprende la generación de imágenes o videos usando inteligencia artificial para hacer parecer autentica esa imagen y disuadir al público sobre una circunstancia.


Sobre tales hechos, también se han hecho públicas las denuncias ante las autoridades del orden penal. En algunos casos, se han logrado condenas y detenciones de presuntos responsables. Lo anterior nos revela una nueva forma de ejercer lo que en la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia ha sido catalogada como violencia digital.


Esa forma de violencia comprende toda acción dolosa realizada mediante el uso de tecnologías de la información y la comunicación, por la que se realice la divulgación de imágenes, audios o videos reales o simulados de contenido íntimo sexual de una persona sin su consentimiento, causándole daño psicológico, emocional, en cualquier ámbito de su vida privada o en su imagen propia.


Las denominadas imágenes deep fake, cuando afectan la intimidad de las mujeres, constituyen violencia digital, y merman la calidad de vida de las afectadas. Por ello, algunas personas desde la academia han propuesto soluciones para ese creciente problema, desde aquellas que sugieren que los prestadores de servicios de redes sociales puedan retirar y prevenir la carga de contenido generado mediante inteligencia artificial, transitando por software que permita detectar esas imágenes y, finalmente, las acciones jurídicas en contra de las plataformas y, también, en contra de los agresores.


Ante ese panorama, las autoridades de protección de datos personales tenemos un enorme reto para apoyar a las mujeres víctimas y generar las sinergias necesarias con las empresas que ponen a disposición del público servicios de inteligencia artificial generativa para que pueda evitarse o, en los casos más extremos, sancionar a quienes facilitan ese tipo de tecnología a los potenciales agresores.


Por ello, invito a todas aquellas mujeres que han sido víctimas del mal uso de la inteligencia artificial para acudir ante el INAI, sea para obtener orientación para defender los derechos con los que cuentan sobre sus datos personales hasta denunciar cualquier mal uso que se realice sobre ellos; para que conforme a nuestras competencias como autoridad de protección de datos personales, actuemos en su defensa en esos terribles acontecimientos.


Como autoridad de datos personales comprendemos que no podemos estar inactivos frente a los usos inadecuados de las tecnologías de inteligencia artificial regenerativa. Ya en el pasado hemos liderado iniciativas como el Observatorio de resoluciones con perspectiva de género o la emisión de la Guía Orientadora Protección de Datos Personales como herramienta para prevenir la violencia digital, por lo que frente a este nuevo reto, podremos ser aliados en su lucha.


Estoy segura de que al unir fuerzas entre nosotras erradicaremos la violencia que se ejerce en nuestra contra, a través de la cooperación entre instituciones y ciudadanía, podremos ganar nuevamente esta lucha, porque juntas venceremos, como lo hemos realizado en el pasado.




Fuentes consultadas:

● INEGI (2022), Modulo sobre Ciberacoso, MOCIBA 2022, Principales resultados, https://www.inegi.org.mx/contenidos/programas/mociba/2022/doc/mociba2022_resultados.pdf

● The Law School, University of Chicago (2018), Don't Believe Your Eyes: Fighting Deepfaked Nonconsensual Pornography with Tort Law, https://legal-forum.uchicago.edu/print-archive/dont-believe-your-eyes-fighting-deepfaked-nonconsensual-pornography-tort-law#footnote130_m97tbj4

● Red Iberoamericana de Protección de Datos Personales, (2019), Recomendaciones Generales para el Tratamiento de Datos en la Inteligencia Artificial, https://www.redipd.org/sites/default/files/2020-02/guia-recomendaciones-generales-tratamiento-datos-ia.pdf

● Davis, Raina, (2020), Technology Factsheet: Deepfakes, Belfer Center for Science and International Affairs, Harvard Kennedy School, https://www.belfercenter.org/publication/technology-factsheet-deepfakes

● Melville Kirsti, (2019, 29 de agosto), The insidious rise of deepfake porn videos — and one woman who won't be silenced, ABC News, https://www.abc.net.au/news/2019-08-30/deepfake-revenge-porn-noelle-martin-story-of-image-based-abuse/11437774

● Aristegui Noticias, (2023, 18 de agosto) Sofía Yunes de MC denuncia alteración de fotos con IA para venderlas en OnlyFans, https://aristeguinoticias.com/1808/mexico/sofia-yunes-de-mc-denuncia-alteracion-de-fotos-con-ia-para-venderlas-en-onlyfans/

● Flanagan Jacob (2023, 18 de abril), Long Island man sentenced for sharing deepfake porn of underage women, Fox5 New York, https://www.fox5ny.com/news/long-island-man-sentenced-for-sharing-deepfake-porn-of-underage-women

● Animal Político (2023, 26 de octubre), Detienen a Diego N., exalumno del IPN que creó con inteligencia artificial imágenes con contenido íntimo, https://animalpolitico.com/estados/detienen-exalumno-ipn-inteligencia-artificial-imagenes-contenido-intimo

108 visualizaciones
bottom of page