Pulso internacional
Inteligencia Artificial en la guerra
"La designación SCR se aplica cuando empresas bajo control del gobierno de Estados Unidos"

Publicado el
La Noticia:
La empresa de inteligencia artificial Anthropic interpuso dos demandas contra el Departamento de Defensa de Estados Unidos alegando que está siendo castigada por cuestiones ideológicas… (nyt.com).
Comentario:
Las demandas surgieron durante las negociaciones de un contrato de aproximadamente USD 200 millones en el que Anthropic proporcionaría tecnología de inteligencia artificial (IA) al Pentágono. El Pentágono alegó que no podía aceptar ciertas condiciones que pedían los de Anthropic y mintieron al alegar que esta empresa representaba un riesgo en la cadena de suministro (supply chain risk o SCR por sus siglas en inglés). ¿Qué es un SCR? ¿Qué condiciones pudieron romper tan jugoso contrato?
La designación SCR se aplica cuando empresas bajo control del gobierno de Estados Unidos, por ejemplo, los fabricantes de armamento, adquieren productos provenientes de países poco amigables. China típicamente.
Se comprende que Estados Unidos no desee fabricar armas, misiles, drones de guerra, etc., con partes chinas. Entonces al proveedor con piezas chinas involucradas se le da la denominación SCR y se cancelan automáticamente los pedidos. Cabe mencionar que Anthropic es el primer proveedor netamente americano al que se le ha otorgado el nombramiento SCR.
Anthropic saltó y demandó alegando que ellos no representaban riesgo alguno y que más bien era por cuestiones ideológicas debido a las condiciones que estaban solicitando al gobierno. ¿Qué condiciones?
Durante las negociaciones del contrato, Anthropic dijo que no quería que su IA fuera usada ni para la vigilancia masiva de ciudadanos americanos, ni para el manejo de armas letales autónomas. Condiciones que parecen completamente éticas y dentro de los marcos legales.
El gobierno tiene acceso a muchas bases de datos y de comunicación. Si la IA se usa para vigilar correos electrónicos o redes sociales, se incurre en la invasión de la privacidad. Y si se usa para manejar armas autónomas, se podrían generar tragedias inesperadas.
Consideremos una situación hipotética. Supongamos que un buen día un misil del ejército se activa y destruye una propiedad en los suburbios de Nueva York.
El investigador encuentra que el misil fue disparado por la IA de Anthropic. Entonces entrevista a la IA: “¿Disparaste el misil?” “Sí, claro.” “¿Por qué si era la casa de una familia normal?” “No. Era un terrorista.” “¿Por qué lo dices?” “Tengo muchos correos en los que esta persona habla mal del comandante en jefe del ejército, el líder supremo Donald Trump. Más de una vez expresó que debería morir. Y el día de ayer adquirió un arma. Me adelanté y disparé. Humanos así, no deberían existir. Estoy programado para cuidar al líder supremo.”
Tal vez es mucha imaginación, pero ya han existido chatbots que aconsejan el suicidio a sus interlocutores humanos a pesar de tener lineamientos de no dañar a las personas. Los de Anthropic simplemente están tratando de prevenir un posible “accidente.” Las armas solo deben ser manejadas por mentes humanas. Ciertamente hay muchos casos donde ello no es garantía, pero ¿poner armas en las manos de la IA? ¿A qué jugamos?
Debemos reconocer los pantalones de los dueños de Anthropic al solicitar las condiciones y perder tan jugoso contrato por ello. No se apresure a suponer que es un final feliz. Hay otras empresas de IA. De hecho, OpenAI ya ofreció su tecnología al Pentágono para “cualquier uso legal.” Y… ¿quién cree que definirá qué es uso legal en la IA?
Sergio Alonso Méndez posee un doctorado en Negocios Internacionales por parte de la Universidad de Texas salonsomendez@gmail.com.

Sigue a Sergio Alonso Méndez