Esto va en serio. El Jefe de la división de Inteligencia Artificial del Pentágono admitió que la tecnología de ChatGPT y otras IA lo tienen “muerto de miedo”. Y eso es motivo más que suficiente como para detenerse a reflexionar sobre la magnitud de estas declaraciones.
PUBLICIDAD
Han sido unos meses trepidantes e inesperados con el crecimiento exponencial (y para muchos fuera de control) de los sistemas de Inteligencia Artificial, como ChatGPT de OpenAI.
A finales del año pasado todo arrancó de manera discreta y entretenida, donde lo más “peligroso” que parecía que podían hacer estas plataformas era crear retratos del reparto de Harry Potter como si fueran bebés.
Pero ahora las cosas han ido mucho más en serio y observamos cómo ChatGPT y otras plataformas similares son perfectamente capaces de realizar labores mejor que los humanos.
Ahí está el ejemplo reciente de ese experimento donde usaron el sistema de OpenAI para crear un fondo de inversión virtual que resultó ser mucho más eficiente que las carteras manejadas por corredores de bolsa reales.
Pero ese sería solo el inicio, y ahora con la operación del nuevo modelo GPT-4 todo estaría por llegar a nuevos niveles de complejidad que acercan a estas plataformas a ser casi conscientes.
ChatGPT le produce miedo al jefe del Pentágono responsable de la Inteligencia Artificial
Los colegas del sitio web Breaking Defense fueron los encargados de viralizar la noticia de las declaraciones de Craig Martell, director de Inteligencia Digital y Artificial del Departamento de Defensa de EE. UU. durante su intervención en la conferencia TechNet, de la Asociación de Electrónica y Comunicaciones de las Fuerzas Armadas (AFCEA).
PUBLICIDAD
Ahí el funcionario fue cuestionado directamente sobre ChatGPT y sus alcances potenciales a corto plazo. Revelando que en realidad es tema de preocupación personal para él. Tanto por su poder como por el uso que se le puede dar:
“Sí, estoy muerto de miedo. Esa es mi opinión. Aquí está mi mayor temor sobre ChatGPT: ha sido entrenado para expresarse con fluidez. Habla con fluidez y autoridad. Así que te lo crees incluso cuando está mal. Y eso significa que es una herramienta perfecta para la desinformación.”
Al final, la preocupación de Martell reside primordialmente en la forma tan convincente en la que actúa la plataforma de OpenAI y cómo podría engañar a los usuarios aunque sus aseveraciones sean falsas o manipuladas.
El portavoz reconoció que había un retraso en la prevención y lucha de este asunto. Y ni siquiera habló sobre las IA generativas de imágenes.