Al no existir una regulación legal, es complicado juzgar los casos de violencia sexual a través de imágenes alteradas con inteligencia artificial

El uso de la inteligencia artificial (IA) se ha popularizado en los últimos años, ha revolucionado muchos aspectos de nuestra vida cotidiana, pero también ha traído consigo desafíos y riesgos significativos, uno de ellos es su uso para crear contenidos sexuales falsos en lo que ha sido definido como violencia de género a través de medios digitales.
Recientemente dos casos han puesto sobre la mesa la urgencia de regulación sobre las herramientas de IA y los retos que representa para el sistema de justicia.
Se trata del caso de la senadora Andrea Chávez, quien el 9 de octubre pasado, hizo una denuncia pública contra el caricaturista Antonio Garci Nieto, quien publicó en sus redes sociales una imagen falsa de contenido sexual con el rostro de la legisladora.
El otro y más reciente caso es el de Diego “N”, alumno del Instituto Politécnico Nacional (IPN), acusado de alterar con inteligencia artificial imágenes de alumnas del Poli y venderlas en un grupo de Telegram.
En la primera audiencia de Diego “N” efectuada el pasado 4 de diciembre, el juez de control del Reclusorio Varonil Oriente, Francisco Salazar Silva, determinó absolverlo al determinar que, si bien el delito ocurrió, no se pudo comprobar que fue el imputado el que lo cometió.
La falta de leyes que regulen el uso de la inteligencia artificial hace difícil judicializar estos casos y que logren una sentencia satisfactoria para las víctimas, señalan expertos.
Para Dardo Emanuel Neubauer, doctor en Ciencias Políticas y Sociales y encargado de la Clínica de Litigio Estratégico de Tlatelolco LAB, que depende del Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad (PUEDJS) de la UNAM, existen limitaciones al intentar presentar una demanda, entre ellos, aspectos como el domicilio legal de las plataformas digitales y que un juzgado atraiga el caso sin que sea desechado.
También es encontrar un juzgado que atraiga el caso y que no sea desechado rápidamente por falta de pruebas o porque no haya pruebas completas, sino de que haya un poco de receptividad del parte del Poder Judicial para atraer estos casos”, señaló Dardo Neubauer.
El también profesor de la Facultad de Ciencias Políticas y Sociales de la UNAM, aseguró que como son casos novedosos, hay casos donde el delito no cuadra y debieran ser los mismos juzgadores quienes entiendan que son procesos novedosos e inéditos.
Ante estos nuevos casos que surgen, el caso de ley Olimpia y el caso de Diego N, justamente por alterar por inteligencia artificial las imágenes de chicas del Poli, era algo que nunca existió; o sea, ha existido en el último tiempo, pero no ha llegado al poder judicial de forma masiva”, argumentó Neubauer.
La abogada de las estudiantes del IPN agraviadas, Valeria Martínez, mencionó al acabar la audiencia que pese a que la víctima increpó al juez, el juez indicó que no hay formas de probar de que Diego “N” cometió el delito y que este tipo de delitos costará bastante en ser reconocidos por los jueces.
Hay que recordar que los delitos de feminicidio no se reconocieron en una primera instancia, en un primer juicio, incluso a nivel local no se reconoció el feminicidio y tuvo que llegar a nivel federal para que se reconociera", señaló.
Si bien a Diego “N” se le acusa de la violación de la intimidad sexual, contemplado en el Artículo 181 Quintus del Código Penal de la Ciudad de México y como parte de la Ley Olimpia, que pena la divulgación de imágenes con connotación sexual sin el consentimiento de la víctima, no contempla el uso de nuevas tecnologías como la inteligencia artificial para alterar imágenes de personas y divulgarlas.
De acuerdo con la Encuesta Nacional sobre la Dinámica en las Relaciones en los Hogares (ENDIREH), realizada en 2021 por el INEGI, del total de mujeres de 15 años para arriba encuestadas, el 13 por ciento han sufrido algún tipo de violencia a través de redes sociales como Meta, X, entre otras.
En la encuesta se revela que es el entorno escolar donde más violencia digital sufren, ya que el 5.1 por ciento vivieron alguna agresión digital en los espacios educativos a lo largo de sus vidas, mientras que el 7.9% fue en el último año.
Del Deepfake a la alteración de imágenes con IA
El uso de inteligencia artificial ha creado nuevos riesgos, como la alteración de imágenes para dañar a las víctimas. 🚨 Para el especialista Dardo Neubauer, especialista “la falta de leyes específicas dificulta que estos casos (violencia digital) sean atendidos por el Poder… pic.twitter.com/CbTyFlgSHM
— Mexiquense (@MexiquenseTV) January 28, 2025
El uso de las nuevas tecnologías para generar desinformación o generar violencia digital ha avanzado en los últimos seis años en México, iniciando con el uso de grabaciones alteradas, algunas con inteligencia artificial, para generar desinformación, más en ámbitos electorales.
De acuerdo con Eloy Caloca Font, investigador en Tlatelolco Lab, muchas de esas plataformas se descargan con fines de entretenimiento, para crear parodias y subirlas a internet, pero no existe responsabilidad de las empresas al usarse estas aplicaciones para otro motivo, ya que además las empresas hacen un descargo de responsabilidades al pedir firmar sus “términos y condiciones”.
Eloy advirtió que “al poner letras pequeñas en donde no se hacen responsables de los usos que se les puedan dar, propician que sean utilizadas para agresiones, hostigamientos y, por ejemplo, se puede suplantar el rostro de una mujer”.
“Se puede suplantar a una persona, una mujer también en este caso, en una acción, en una declaración, en un contexto que ella no estuvo implicada para atacarla con violencia de género en política”.
Una alternativa para no estar desprotegidos
La Clínica de Litigio Estratégico (CLE) de Tlatelolco Labs ofrecen asesorías legales y ayudan a revisar casos como el bloqueo de cuentas de manera arbitraria, la eliminación de contenido de manera unilateral, la violación de datos personales y casos donde se divulgan imágenes donde se viole la intimidad de las personas usuarias de redes sociales.
Dardo Neubauer indicó que la Clínica se enfoca más en la protección de datos personales y de las infancias y en presentar demandas, si es el caso, contra las plataformas digitales donde ocurrieron esas violaciones de datos personales.
No obstante, Eloy Caloca Font explicó que las demandas que presentan los abogados de la cínica como parte de los casos que les llegan, son con relación a la Ley General de Protección de Datos Personales, eso al no haber leyes específicas al respecto.
Para buscar asesorías del CLE, puede contactarlos por el siguiente correo: cle@puejs.unam.mx