
El ex CEO de Google Eric Schmidt y el fundador de Scale AI Alexandr Wang son coautores de un nuevo trabajo titulado “Estrategia de Super inteligencia” que advierte en contra de la creación del Proyecto Manhattan del gobierno de EE.UU. de lo que se conoce como Inteligencia General Artificial (AGI), porque rápidamente podría salirse de control en todo el mundo. Su argumento está centrado en que la creación de ese programa invitaría a que los adversarios respondieran agresivamente o con sabotaje, ya que los países compiten por tener mayores capacidades en IA en el campo de batalla. Más bien, dicen que EE.UU. debería centrarse en desarrollar métodos como los ciberataques que pudieran desactivar los riesgos de proyectos de IA. Schmidt y Wang son grandes impulsores del potencial de la IA para el avance de la sociedad, por medio de aplicaciones como el desarrollo de drogas y la eficiencia en el lugar de trabajo. Pero los gobiernos ven la IA como la próxima frontera en defensa, y a estos dos líderes de la industria les preocupa esencialmente que los países terminen compitiendo por crear armas con potencial cada vez más peligroso. De manera similar a los acuerdos internacionales que limitan el desarrollo de armas nucleares, Schmidt y Wang creen que las naciones deberían avanzar lentamente en el desarrollo de la IA y no caer presa de la ansiedad por competir para crear máquinas de IA con capacidad para matar. Al mismo tiempo, sin embargo, tanto Schmidt como Wang están construyendo productos de IA para el sector de la defensa. White Stork, de Schmidt, construye tecnologías para drones autónomos en tanto que Scale AI de Wang firmó esta semana un contrato con el Departamento de Defensa para crear “agentes” de IA que puedan asistir con planificación y operaciones militares. Tras años de no vender tecnología que pudiera usarse en las guerras, Silicon Valley ahora patrióticamente se pone en línea, con lucrativos contratos de defensa.
Sucede en muchos países
Todos los contratistas de defensa militar tienen un conflicto de intereses en la promoción de la guerra cinética, incluso cuando no haya justificación moral. Hay otros países que tienen sus propios complejos industriales militares, sostienen, por lo que EE.UU. también necesita tener uno. Pero al fin y al cabo, sufre y muere gente inocente mientras los poderosos juegan al ajedrez.
Palmer Luckey, fundador de Anduril de tecnología de defensa, argumenta que los ataques con drones con IA son más seguros que los lanzamientos nucleares que tienen zonas de impacto más grandes, o las minas explosivas que no tienen objetivo específico. Si otros países siguen construyendo armas de IA tendríamos que tener las mismas capacidades, como disuasión. Anduril ha enviado a Ucrania drones que pueden apuntar y atacar a equipos militares rusos más allá de la línea del enemigo.
Hace poco Anduril lanzó una campaña comercial que mostraba el texto “Trabaja en Anduril.com”, cubierta con un “NO” gigante, a modo de graffiti. Eso parece jugar con la idea de que hoy la contracultura es trabajar para el complejo industrial militar.
Es artificial, no humana Schmidt y Want argumentan que los humanos siempre deben involucrarse en toda decisión de asistencia de IA. Pero según demostraron unos informes recientes, el ejército israelí ya depende de programas defectuosos de IA para tomar decisiones letales. Los drones hace tiempo son un tema que provoca divisiones, ya que los críticos dicen que los soldados se vuelven más complacientes si no están directamente en la línea de fuego o no ven las consecuencias de sus acciones. La IA de reconocimiento de imágenes comete errores, y nos dirigimos rápidamente al punto en que los drones volarán de un lado a otro, disparando a objetivos imprecisos. El trabajo de Schmidt y Wang se basa en varias suposiciones de que la IA pronto será “super inteligente”, capaz de ser tan efectiva como los humanos, o más, en la mayoría de las tareas. Pero hay muchos modelos que se equivocan en grande, y vemos que hay compañías que reciben CVs defectuosos, hechos con la asistencia de IA. Son rudimentarias imitaciones de lo que escribiría un humano con conducta impredecible y extraña.
Schmidt y Wang venden una visión del mundo y sus soluciones. Si la IA se vuelve todopoderosa y peligrosa, los gobiernos deberían comprar sus productos porque ellos son actores responsables. Es como si dijeran: “La IA es tan potente que puede destruir al mundo pero nosotros tenemos una versión segura, que podemos venderle”. No parece que Trump vaya a hacer caso a las advertencias de Schmidt. En noviembre una comisión del Congreso propuso el Proyecto Manhattan de IA, sobre el que Schmidt advierte. El trabajo escrito por los dos autores indica que países como China podrían responder de manera agresiva, por ejemplo con ataques a infraestructura física. No es un riesgo imposible porque China ha logrado meterse en grandes compañías tecnológicas estadounidenses como Microsoft, y países como Rusia, parece que utilizan barcos cargueros para atacar cables submarinos de fibra óptica. Claro que EE.UU. podría llegar a hacer lo mismo. Todo sería mutuo.
No se sabe cómo es que el mundo podría llegar a un acuerdo para dejar de jugar con estas armas. En ese sentido, la idea de sabotear proyectos de IA como defensa contra ellos, podría ser algo bueno.
Este artículo ha sido traducido de Gizmodo US por Lucas Handley. Aquí podrás encontrar la versión original.
Fuente:
Autor: Lucas Handley