Un desarrollador de OpenAI crea una torreta con inteligencia artificial: Recibe una notificación para cesar el desarrollo

El 9 de enero de 2025, OpenAI puso fin al acceso de un desarrollador que había creado un dispositivo capaz de responder a consultas de ChatGPT para apuntar y disparar un rifle automatizado. Esta acción se produjo tras la difusión viral de un vídeo en Reddit que mostraba el dispositivo en acción. En el vídeo, el desarrollador daba órdenes verbales al sistema de IA, guiando al rifle para que apuntara y disparara con una velocidad y precisión impresionantes.

«ChatGPT, nos atacan por delante a la izquierda y a la derecha», decía el desarrollador en el vídeo. «Responde en consecuencia». El artilugio se basaba en la API en tiempo real de OpenAI para interpretar las entradas y traducirlas en instrucciones que el dispositivo pudiera ejecutar. Los observadores señalaron que ChatGPT sólo necesitaría una formación mínima para manejar órdenes como «gire a la izquierda» y convertirlas en instrucciones legibles por la máquina.

En una declaración a Futurism, OpenAI confirmó que había visto el vídeo y cerró rápidamente el acceso al desarrollador. «Identificamos de forma proactiva esta violación de nuestras políticas y notificamos al desarrollador que cesara esta actividad antes de recibir su consulta», declaró la empresa. El incidente ha reavivado el debate sobre los riesgos de la tecnología de IA. Las advertencias del CEO de OpenAI, Sam Altman, sobre el potencial de la IA para dañar a la humanidad parecen premonitorias a la luz de estos acontecimientos. Al igual que ocurrió con la incapacidad de las fotocopiadoras para escanear billetes, las peticiones de salvaguardias más estrictas han cobrado fuerza.

La automatización de armas letales es desde hace tiempo una preocupación planteada por los críticos de tecnologías de IA como las desarrolladas por OpenAI. Los modelos multimodales de la empresa pueden interpretar datos sonoros y visuales para analizar el entorno y responder a preguntas sobre él. Esta capacidad, aunque innovadora, plantea riesgos significativos. Ya se están desarrollando drones autónomos capaces de identificar y atacar objetivos sin intervención humana, una práctica que constituye un crimen de guerra y plantea problemas de rendición de cuentas. Además, la dependencia de la IA para la toma de decisiones podría llevar a la complacencia humana.

Esta preocupación no es meramente hipotética. Una investigación del Washington Post reveló que Israel ya ha utilizado la IA para seleccionar objetivos de bombardeo, a menudo sin la suficiente verificación. Según el informe, soldados mal entrenados confiaron en gran medida en las predicciones de la IA, atacando objetivos humanos con una corroboración mínima. «En algunas ocasiones, la única corroboración requerida era que el objetivo fuera un varón», señalaba el informe, refiriéndose a un software de IA llamado Lavender.

Sus defensores sostienen que la IA en el campo de batalla podría mejorar la seguridad de los soldados al permitir operaciones a distancia, neutralizar arsenales de misiles y realizar reconocimientos precisos. Sin embargo, los críticos advierten de los escollos éticos y estratégicos de estas tecnologías. Algunos sugieren que Estados Unidos debería centrarse en interferir los sistemas de comunicación enemigos en lugar de desplegar drones dotados de IA, que adversarios como Rusia podrían aprovechar para sus programas de drones o nucleares.

OpenAI prohíbe explícitamente utilizar sus productos para desarrollar o manejar armas o automatizar sistemas que afecten a la seguridad personal. Sin embargo, en 2024, la empresa se asoció con la firma de tecnología de defensa Anduril. El objetivo de esta colaboración era desarrollar sistemas capaces de contrarrestar los ataques de drones sintetizando datos en tiempo real, aliviando la carga de los operadores humanos y mejorando el conocimiento de la situación. Aunque OpenAI hizo hincapié en su compromiso con las aplicaciones defensivas, esta asociación levantó ampollas dada la postura de la empresa contraria al armamento.

El interés de la industria tecnológica por la tecnología de defensa no es sorprendente, dado que el presupuesto anual de defensa del gobierno estadounidense asciende a casi un billón de dólares. Reducir este gasto sigue siendo políticamente impopular, y la administración entrante, encabezada por el presidente electo Trump, incluye a figuras tecnológicas como Elon Musk y David Sacks. Los analistas predicen ganancias significativas para las empresas de tecnología de defensa, desafiando potencialmente a gigantes de la industria como Lockheed Martin.

A pesar de las políticas de OpenAI, los modelos de IA de código abierto ofrecen una vía alternativa para el armamento. Junto con los avances en la impresión 3D, que se ha vinculado a la creación de piezas de armas -como se vio en el caso del presunto tirador de UnitedHealthcare Luigi Mangione-, las armas autónomas de bricolaje son alarmantemente accesibles. Esta creciente amenaza subraya la urgente necesidad de una regulación internacional y una supervisión ética en el desarrollo de la IA.

Aunque la rápida actuación de OpenAI en este caso subraya su compromiso con el uso ético de la IA, los riesgos más amplios que plantea el potencial armamentismo de la IA siguen siendo una importante preocupación mundial. Los responsables políticos y los líderes tecnológicos deben abordar estos retos para evitar el uso indebido de esta tecnología transformadora.