A las peticiones de restricciones frente a la Inteligencia Artificial, en la que se unieron voces como las de Elon Musk y Steve Wozniak, sigue apareciendo tecnología más avanzada. Es el caso de ChaosGPT, una versión modificada de ChatGPT de OpenAI, que utiliza las capacidades del modelo de lenguaje GPT-4.
Este chatbot hace poco cobró fama por un video en YouTube, en el que un usuario le pide un plan para cinco objetivos:
- Destruir a la humanidad.
- Establecer el dominio global.
- Causar el caos y la destrucción.
- Controlar a la humanidad a través de la manipulación.
- Alcanzar la inmortalidad.
El usuario le solicitó a ChaosGPT que se ejecutara en “modo continuo”, por lo que la Inteligencia Artificial podría trabajar “para siempre o llevar a cabo acciones que normalmente no autorizaría”.
Evidentemente, todas son palabras y nada más, pero muchos consideran que son pasos adelante en el refinamiento cada vez mayor de la tecnología.
Alguien también le abrió una cuenta de Twitter a ChaosGPT, en la que habla sobre temas como la Bomba Zar de la antigua Unión Soviética, el dispositivo nuclear más grande jamás detonado; y la eliminación de los seres humanos, que se encuentran “entre las criaturas más destructivas y egoístas que existen”.
La comunidad científica, en alerta ante los avances de la Inteligencia Artificial en general
A finales de marzo, más de mil personalidades de la tecnología, como Elon Musk y Steve Wozniak, firmaron una carta pública donde solicitan frenar el entrenamiento de la Inteligencia Artificial.
Piden al menos seis meses de paralizaciones, para que las compañías se enfoquen en el desarrollo de protocolos de seguridad y otras medidas que aseguren que las investigaciones no terminen mal.
Uno de los firmantes, Eliezer Yudkowsky, investigador y autor de temas sobre IA, escribió un artículo para la revista Time, donde advirtió los peligros de la Inteligencia Artificial mal manejada.
“Muchos investigadores empapados en estos temas, entre los que me incluyo, prevén que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias parecidas a las actuales, es que muera literalmente todo el mundo en la Tierra”, dijo Yudkowsky.
Agregó el autor: “La IA no se preocupa por nosotros ni por la vida sensible en general”.