
<span class="image__caption">¿Llegarán las máquinas a controlar nuestras vidas? La regulación de la inteligencia artificial para garantizar su uso ético. Imagen: Gemini.</span> <span class="image__author"> - Ilustración creada por IA. </span>
Publicado por
Pilar Bernat
Periodista, historiadora y profesora universitaria. Especialista en tecnologías de la información.
Creado:
25.01.2025 | 11:48
Actualizado:
23.01.2025 | 08:50
El creciente desarrollo de la IA plantea la necesidad de fijar unas normas básicas sobre seguridad y privacidad para que los cibersistemas no atenten contra los derechos humanos. ¿Quién se ocupa de esta inquietante tarea?
Georges Dassis, presidente del Comité Económico y Social Europeo (CESE), firmaba el 31 de mayo de 2017 en el Dario Oficial de la UE un dictamen titulado "Las consecuencias de la inteligencia artificial" (IA) para el mercado único (digital), la producción, el consumo, el empleo y la sociedad. En el párrafo primero de las conclusiones y recomendaciones, el autor afirmaba esto: “Dada la influencia tanto positiva como negativa de la inteligencia artificial en la sociedad, el CESE se ha comprometido a seguir la evolución en este ámbito, no solo desde el punto de vista técnico, sino también desde la perspectiva de la ética, la sociedad y la seguridad […] y a contribuir a crear un debate equilibrado y bien fundado, sin alarmismos ni relativizaciones extremas. El CESE se compromete a promover el desarrollo de una IA que beneficie a la humanidad…”.
La Unión Europea ante el desafío de la inteligencia artificial
Para los descreídos de la política es factible que semejante enunciado en el párrafo de introducción de una iniciativa, lejos de tranquilizarlos, les despierte cierta inquietud. Lo normal es pensar más bien en las razones que mueven a la UE no solo a dedicar tiempo y dinero a la supervisión del desarrollo de la inteligencia artificial, sino a emitir este sorprendente y extenso dictamen tras una ponencia de Catelijne Muller, miembro del Grupo de Expertos de Alto Nivel sobre IA de la Comisión Europea.
Crean una IA que ‘piensa’ más parecido al cerebro humano
En su dictamen, el CESE señala once áreas donde la IA plantea desafíos sociales: ética, seguridad, privacidad, transparencia y rendición de cuentas, trabajo, educación y desarrollo de capacidades, igualdad e inclusión, legislación y reglamentación, gobernanza y democracia, guerra y superinteligencia. Además, defiende la necesidad de que este futuro sea comandado por las personas, “con un marco de condiciones que regule el desarrollo responsable, seguro y útil de la IA de manera que las máquinas continúen siendo máquinas y los humanos conserven en todo momento el dominio sobre ellas”.
¿Llegarán las máquinas a controlar nuestras vidas? La regulación de la inteligencia artificial para garantizar su uso ético. Image: Gemini
De la ficción a la realidad
Parece bastante claro que las leyes que Isaac Asimov escribió en 1942 y que han regulado la ciencia ficción en el último medio siglo se han quedado obsoletas, porque la realidad siempre supera la ficción.
La IA es una rama de la informática que se encarga de la percepción, el racionamiento y el aprendizaje basado en sistemas artificiales. Los sistemas de conocimiento, la robótica, el lenguaje natural y las redes neuronales constituyen los pilares sobre los que se desarrolla esta ciencia.
Es bien conocido que las múltiples plataformas de IA que están surgiendo por doquier se programan o se entrenan –en el caso de las redes neuronales– mediante algoritmos. Pero en contra de lo que parece ser una idea generalizada, un algoritmo no es una fórmula matemática, sino que, según lo define Yuval Noah Harari en su libro Homo Deus, “se trata de un conjunto metódico de pasos que pueden emplearse para hacer cálculos, resolver problemas y alcanzar decisiones”.
Es decir, no es el cálculo en sí mismo, sino el método o la rutina que se sigue para realizarlo. De esta forma, si una media aritmética es, por ejemplo, (1+2+3)/3=2, el algoritmo (o instrucción básica para llevarla a cabo) sería “sumar las cantidades de un número determinado de valores y dividirlo por el número de valores”. Si lo que se trata es de abrir una puerta, un algoritmo (diseñado, claro está en lenguaje de programación) podría ser: “introducir la llave en la cerradura, girarla hasta el tope y empujar”. Pero si la puerta tiene pomo, el algoritmo sería otro.
Algoritmos sesgados: la sombra de la discriminación en la era de la inteligencia artificial
Por tanto, la acción que se deriva de la enseñanza que se ha dado a una máquina depende, en mayor o menor medida, del humano que lo concibe y lo escribe. Y ahí es donde radica el problema: en la intervención del hombre con sus creencias, preferencias, juicios y prejuicios.
A tal punto ha llegado la preocupación de los expertos en la materia que Joy Buolamwini, científica computacional del MIT Media Lab y fundadora de la Liga Algorítmica de la Justicia, ha organizado un movimiento cuyo objetivo es denunciar los sesgos –bias, en inglés– que la programación puede llevar implícita.
Además ha creado un espacio en el que las personas interesadas pueden compartir sus preocupaciones y experiencias a este respecto. Por otro lado, ha pedido ayuda a activistas que se quieran movilizar por el cambio; a los desarrolladores, para que hagan su trabajo de forma inclusiva; a artistas, para que promuevan la reflexión social; y al entorno académico, para que investigue la parcialidad.
Buolamwini también pretende que las empresas dispongan de recursos para comprobar las desviaciones; que los ciudadanos exijan justicia, responsabilidad y transparencia; y que los legisladores sean responsables de marcar las pautas a seguir. En definitiva, ha dado la voz de alerta: “Los algoritmos pueden tener consecuencias en el mundo real y debemos exigir justicia “.
¿Llegarán las máquinas a controlar nuestras vidas? La regulación de la inteligencia artificial para garantizar su uso ético. Imagen: Gemini.
La discriminación por el color de piel
En su último trabajo, Buolamwini ha denunciado mediante una videopoesía viral los resultados de varias pruebas de sistemas de reconocimiento facial diseñados con inteligencia artificial y desarrollados por grandes multinacionales de la informática en los que se ve claramente que este software discrimina a los negros. En unos casos, en entornos absurdos, como un concurso de belleza, el Beauty.AI, donde solamente una persona de color entre seis mil participantes de todas las razas y nacionalidades quedó finalista.
Pero en otros, en contextos tan serios como es la aplicación de programas de apoyo a la justicia –en fase comercial–, donde los ciudadanos negros resultan culpables aunque sean inocentes. Y Buolamwini lo ha demostrado aplicando los resultados del sistema sobre las facciones de Michelle Obama o de Oprah Winfrey.
¿Cómo asegurar que beneficie a toda la humanidad y no solo a unos pocos?
También en el Instituto Tecnológico de Massachusetts (MIT), Harini Suresh, estudiante de doctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL), dedica su tiempo a investigar el desarrollo de algoritmos de aprendizaje automático justos y precisos que permitan a los usuarios obtener los datos que necesitan.
Según la página oficial del centro donde investiga, Suresh estudia las implicaciones sociales de los sistemas automatizados en el Grupo de Inferencia Impulsada por Datos, del profesor del MIT John Guttag, el cual utiliza el aprendizaje automático y la visión computarizada para mejorar los resultados en el campo de la medicina, las finanzas y el deporte.
En una entrevista publicada en la sala de prensa del MIT, Suresh explicó que “en el aprendizaje automático empleamos normalmente datos históricos y formamos un modelo para detectar patrones que se repiten y hacer predicciones nuevas; si los datos están sesgados por una tendencia, como por ejemplo ‘las mujeres tienden a recibir menos tratamiento para el dolor’, entonces el modelo lo aprenderá. —Y añadió—: Incluso si los datos no son parciales, si solo tenemos menos información sobre cierto grupo, las predicciones para este serán peores. Si ese modelo luego se integra en un hospital o en cualquier otro sistema del mundo real, no tendrá el mismo rendimiento en todos los grupos de personas, y eso sería problemático y poco equitativo”.
Algoritmos justos
Esto ha llevado a Suresh a trabajar en la creación de algoritmos que empleen datos de forma efectiva pero justa. “Esto implica tanto detectar el sesgo o la escasa representatividad de esos datos como intentar averiguar la forma de paliarlo en distintos puntos del contenedor de aprendizaje automático. Hay que facilitar a la gente el uso responsable de estas herramientas con el fin de que nuestras predicciones sean aceptables para la sociedad en general”, dice Suresh.
En este sentido, la Unión Europea pide en el documento antes mencionado “que se elabore un código deontológico para el desarrollo, despliegue y utilización de la IA, de modo que durante todo su proceso de funcionamiento los sistemas de inteligencia artificial sean compatibles con los principios de la dignidad humana, la integridad, la libertad, la privacidad, la diversidad cultural y de género y los derechos humanos fundamentales”.
Además, el CESE, al igual que se hace desde el MIT, aboga claramente “por el desarrollo de un sistema de normalización para la verificación, validación y control de los sistemas de inteligencia artificial” e indica que debe estar basado en un amplio abanico de normas en materia de seguridad, transparencia, inteligibilidad, rendición de cuentas y valores éticos.
¿Llegarán las máquinas a controlar nuestras vidas? La regulación de la inteligencia artificial para garantizar su uso ético. Imagen: Gemini.
Infraestructura de IA de fuente abierta
Europa también es partidaria de una infraestructura de IA de fuente abierta (open source) que incluya entornos de aprendizaje (machine learning) respetuosos con la vida privada y que se puedan ensayar en ámbitos de la vida real y cotidiana.
AI-Hub Europe publicaba una declaración de Dunja Mijatović, comisaria europea de Derechos Humanos, experta en leyes y regulación de medios, en la que recordaba que, incluso en casos de usos de la inteligencia artificial que tienen beneficios obvios, la ciencia de datos que está detrás de ellos pasa desapercibida para el público en general.
“La IA –y en particular sus subcampos de aprendizaje automático y aprendizaje profundo– solo pueden ser neutrales en apariencia, si es que lo son. Bajo la superficie, la IA puede llegar a ser extremadamente personal. Las ventajas de tomar decisiones fundamentadas en cálculos matemáticos pueden ser enormes en muchos sectores de la vida, pero confiar demasiado en la inteligencia artificial, que implica intrínsecamente patrones que están más allá de estos cálculos, también puede volverse contra los usuarios, perpetrar injusticias y restringir los derechos de las personas”, asegura esta alta mandataria, quien reiteradamente manifiesta su inquietud sobre el impacto de la IA sobre los derechos humanos, especialmente en el campo de la privacidad.
IA: derechos humanos, diversidad e igualdad
Mijatović insiste en que no hay que olvidar los fundamentos básicos de la computación: “Las máquinas ejecutan tareas en función de lo que las personas les dicen. Si un sistema se alimenta con prejuicios humanos (conscientes o inconscientes), el resultado será inevitablemente parcial”.
La falta de diversidad e inclusión en el diseño de los sistemas de IA es, por lo tanto, una preocupación clave para esta experta: “En lugar de hacer que nuestras decisiones sean más objetivas, podrían reforzar la desigualdad y los prejuicios, al darles una apariencia de objetividad. Cada vez hay más pruebas de que las mujeres, las minorías étnicas, las personas con discapacidad y las personas LGBTI sufren discriminación por algoritmos sesgados”.
Según informan desde diferentes departamentos de la Unión Europea, se ha demostrado que Google es propenso a mostrar anuncios de puestos de trabajo de gestión altamente remunerados, por encima de otros más comunes, y que favorece a los hombres por delante de las mujeres.
Igualmente, existen ejemplos en software de atención médica que discriminan a los discapacitados; de chatbots –robots que mantienen conversaciones y contestan preguntas– xenófobos; de plataformas de atención ofensivas… Por tanto, hay una preocupación generalizada y denunciada desde diferentes oenegés que alertan de la situación para que se tomen medidas en los sistemas de aprendizaje automático que eviten las prácticas discriminatorias. Y encontramos situaciones similares en el campo de la vigilancia, la predicción de crímenes o la posibilidad de reincidencia.
La propuesta de la Unión Europea para un desarrollo responsable de la inteligencia artificial
Así las cosas, con la IA instalándose en nuestras vidas a pasos agigantados, en diferentes estadios y en múltiples campos, sin un control absoluto sobre desarrollos y desarrolladores y con grandes dudas sobre su equidad, la Comisión Europea parece haber tomado conciencia de la situación. Por eso, ha puesto en marcha algunas medidas, al menos teóricas, para procurar la eficiencia de la justicia. A través de uno de sus órganos judiciales, el CEPEJ ha designado un equipo de expertos multidisciplinar que “dirigirá la elaboración de directrices para el uso ético de los algoritmos dentro de los sistemas de justicia, incluida la justicia predictiva”.
¿Llegarán las máquinas a controlar nuestras vidas? La regulación de la inteligencia artificial para garantizar su uso ético. Imagen: Gemini.
Cooperación de gobierno e instituciones
Al mismo tiempo, Mijatović ha solicitado una cooperación más estrecha entre los actores estatales: Gobiernos, Parlamentos, el poder judicial, todas las instituciones implicadas en la aplicación de las leyes, las empresas privadas, las academias, las oenegés, las organizaciones internacionales y el público en general. Es una tarea ardua pero no imposible.
La idea generalizada, como decíamos, es mirar hacia arriba y buscar las limitaciones de la inteligencia artificial en la Declaración de los Derechos Humanos y sus documentos derivados. Además, cada país debe vigilar los trabajos realizados en su territorio, aportar recursos para impugnar las intrusiones y acatar normas como las que aprobó el Comité de Ministros de la Unión Europea el 7 de marzo de 2018 sobre las funciones y responsabilidades de los intermediarios de internet en el ámbito de la protección de la privacidad, el sesgo o la libertad de expresión: “Los estados se enfrentan al complejo desafío de reglamentar un entorno en que las partes privadas cumplan un plan y un papel crucial en la prestación de servicios con importante valor del servicio público”, reza el documento de los ministros.
Según los expertos que lo redactaron, “la tarea de regulación se complica aún más por la naturaleza global de internet y servicios relacionados, por la diversidad de intermediarios, por el volumen de comunicación de internet y por la velocidad a la que se produce y procesa. Debido al hecho de que los intermediarios operan o se usan en muchos países, incluso en un contexto de computación en la nube, sus acciones también pueden tener efectos bajo varias leyes, a veces conflictivas, de diferentes jurisdicciones”.
Sobre los datos de los usuarios
LA UE recuerda que los intermediarios recolectan, generan, retienen y procesan una gran cantidad de información y datos de y sobre los usuarios, y advierten de que todas las empresas online han de actuar de conformidad con las leyes aplicables y los marcos regulatorios. Por eso, instan a todos los países miembros a tomar medidas para el correcto cumplimiento de las normas y a revisar, de forma periódica, las medidas adoptadas para aplicar la recomendación, “con el fin de mejorar su eficacia”.
Como vemos, literatura, estudios, consejos y documentos orientativos no faltan. Todos los miembros del ecosistema de la inteligencia artificial parecen ser conscientes tanto de sus beneficios como de los perjuicios y prejuicios que puede acarrear, pero son pocas las medidas concretas que se están tomando para prevenir y resolver.
Emilio Monte: “La IA solo puede generar resultados útiles si se entrena con datos precisos”
Fuente:
Autor: edgary185