OpenAI, la compañía conocida por sus avances en inteligencia artificial (IA), actualizó hace un par de días la política de uso de ChatGPT para permitir aplicaciones militares de sus sistemas de IA.
PUBLICIDAD
Esta decisión, que excluye el desarrollo de armas y herramientas dañinas, se produjo en un momento en que las fuerzas armadas a nivel mundial están interesadas en integrar la IA y el aprendizaje automático en sus estrategias.
Colaboración con agencias de defensa
De acuerdo a los trascendidos, OpenAI en colaboración con la Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos, busca diseñar herramientas de ciberseguridad avanzadas y mejorar la protección de la infraestructura de seguridad del país.
Según explicó a Wired Niko Feliz, vocero de OpenAI, la actualización de las políticas busca establecer principios universales aplicables globalmente.
Eso sí, la IA militar ya está generando discusión y preocupaciones, especialmente en torno a armas biológicas mortales y ciberseguridad.
Tanto así que a finales del año pasado, Kamala Harris, vicepresidenta de Estados Unidos, presentó una declaración firmada por 31 países para establecer límites en el uso militar de la IA, buscando alinear la tecnología con las leyes internacionales.
Proyecciones del mercado militar de la IA
En un escenario donde el gasto militar global alcanzó los 2.24 billones de dólares en 2022, OpenAI se enfoca en un mercado lucrativo y en expansión.
PUBLICIDAD
La nueva política de OpenAI, efectiva desde el 10 de enero, abre posibilidades para que las agencias de seguridad empleen desarrollos de IA generativa en operaciones de seguridad nacional.
Sin embargo, la compañía aclaró que los casos de uso deben alinearse con su misión y principios éticos.
Con todo, las proyecciones indican que el mercado de IA en el ámbito militar superará los 13.700 millones de dólares para 2028, por lo que OpenAI ya se posiciona en un sector que va al alza.