
Microsoft intenta mostrar su compromiso con la seguridad de la IA al enmendar una denuncia que presentó el año pasado, desenmascarando a los cuatro desarrolladores que, según alega, evadieron las salvaguardas de sus herramientas de IA para generar deepfakes, o falsas imágenes, de personalidades famosas. La compañía presentó la denuncia en diciembre, y una orden del tribunal le permitió a Microsoft tomar un sitio web relacionado con la operación para ayudar a identificar a estas personas. Los cuatro desarrolladores parece que forman parte de una red global de ciberdelincuentes, conocida como Storm-2139: Arian Yadegarnia alias “Fiz” de Irán; Alan Krysiak alias “Drago” del Reino Unido; Ricky Yuen alias “cg-dot” de Hong Kong y Phát Phùng Tấn alias “Asakuri” de Vietnam. Microsoft dice que ha identificado además a otros involucrados, pero no quiere nombrarlos todavía para no interferir con la investigación en curso. Según Microsoft el grupo irrumpió en cuentas con acceso a sus herramientas de IA generativa y logró violarlas para crear todo tipo de imágenes que se les ocurrieran. Luego el grupo le vendió este acceso a otros, que lo usaron para crear falsos desnudos de personas famosas, por ejemplo.
Valientes solamente detrás de un teclado Después de presentar la denuncia y apoderarse del sitio web del grupo, Microsoft dijo que los acusados entraron en modo pánico: “El apoderarnos de este sitio web y el subsiguiente levantamiento del secreto de las denuncias en enero, generaron una reacción inmediata en los acusados, y en algunos casos incluso ciertos miembros del grupo empezaron a acusarse los unos a los otros”, dice el blog de la compañía.
Las celebridades, que incluyen a Taylor Swift, son desde hace tiempo objetivos frecuentes en la pornografía deepfake, que toma el rostro de una persona real y lo superpone sobre un cuerpo desnudo. En enero de 2024 Microsoft tuvo que actualizar sus modelos de texto-a-imagen después de que aparecieran falsas imágenes de Swift en internet. La IA generativa hace que sea increíblemente fácil crear las imágenes aunque no se tenga mucho conocimiento técnico, y esto ya ha causado una epidemia de escándalos de deepfake en escuelas secundarias de EE.UU. Las historias recientes de las víctimas de deepfakes ilustran el hecho de que la creación de imágenes no es algo que se pueda tomar con liviandad porque hay víctimas, y aunque todo ocurra en el mundo digital, el daño se traduce a la realidad al hacer que las victimas se sientan atemorizadas, ansiosas, violadas por saber que alguien está lo suficientemente obsesionado con ellas como para hacer algo así.
Diluvio de información falsa y contenido basura Ha habido un debate que continúa en la comunidad de la IA en cuanto a la seguridad, que preguntan si la preocupación es real o fingida, con el fin de que los grandes actores logren ser más influyentes y vendan sus productos al exagerar el verdadero poder de la inteligencia artificial generativa. Se argumenta que si se mantienen los modelos de IA como código cerrado, se pueden prevenir los abusos más graves limitando la capacidad de los usuarios de desactivar los controles. Otros, que prefieren el código abierto, creen que es necesario que los modelos puedan modificarse y mejorarse para acelerar al sector, y que es posible ocuparse de los abusos sin obstaculizar la innovación. Sea como sea, todo se siente como una distracción del peligro más inmediato: la IA ha estado llenando internet con información imprecisa y contenido basura.
Aunque a veces los temores parecen hipotéticos y exagerados, y tal vez la IA no sea tan buena como para llegar a ser un peligro en sí misma, el mal uso de la IA para crear deepfakes es algo real. Los medios legales son una de las formas en que pueden enfrentarse estos abusos. Ha habido ya varios arrestos en EE.UU. de personas que usaron la IA para crear deepfakes de menores de edad. Y el Congreso el año pasado promulgó una ley NO FAKES, que considera delito la generación de imágenes que se basan en las reales de una persona. El Reino Unido penaliza la distribución de pornografía deepfake, y pronto también será delito su producción. Australia recientemente declaró delito la acción de crear y compartir deepfakes sin consentimiento.
Este artículo ha sido traducido de Gizmodo US por Lucas Handley. Aquí podrás encontrar la versión original.
Fuente:
Autor: Lucas Handley