Los avances de la Inteligencia Artificial tienen a la sociedad en estado de asombro. Pero un grupo de expertos plantea un escenario brutal: puede llegar un momento en el que lo que hoy se aplaude, termine con la vida en la Tierra.
PUBLICIDAD
Eliezer Yudkowsky, investigador y autor de temas sobre Inteligencia Artificial, escribió un artículo para la revista Time, donde lanza esta dura advertencia.
“Muchos investigadores empapados en estos temas, entre los que me incluyo, prevén que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias parecidas a las actuales, es que muera literalmente todo el mundo en la Tierra”, dice.
“La Inteligencia Artificial no se preocupa por nosotros ni por la vida sensible en general”, agrega Yudkowsky.
Elon Musk, Steve Wozniak y más de mil figuras contra la Inteligencia Artificial
Recientemente, un grupo de 1.125 figuras del mundo tecnológico, que incluyen no solo a Yudkowsky, sino también a Elon Musk y a Steve Wozniak, cofundador de Apple, pidieron una pausa de al menos seis meses en el entrenamiento de las tecnologías de IA más potentes. Estas son el siguiente paso a GPT-4, de OpenAI.
Musk, en su momento, afirmó: “Estoy un poco preocupado por las cosas de la Inteligencia Artificial. Creo que es algo que debería preocuparnos. Creo que necesitamos algún tipo de autoridad reguladora, o algo así, que supervise el desarrollo de la IA y se asegure de que funcione en el interés público”.
El multimillonario, citado por Slash Gear, añadió que la Inteligencia Artificial “es una tecnología bastante peligrosa, me temo que pude haber hecho algunas cosas por acelerarla”. Lo hace refiriéndose a que formó parte de los creadores de OpenAI, aunque salió de la empresa en 2018.
PUBLICIDAD
Eliezer Yudkowsky pide “una prohibición indefinida y mundial” de la IA
Pero si en la carta Yudkowsky firmó por una pausa de seis meses para el entrenamiento de la Inteligencia Artificial, en el artículo de Time sugiere “una prohibición indefinida y mundial”, sin excepciones para gobiernos y ejércitos.
“Si los servicios de inteligencia aseguran que un país ajeno a todo tipo de acuerdos internacionales está construyendo un clúster de GPU, hay que tenerle menos miedo a un conflicto armado entre naciones y más a que se viole la pausa del desarrollo de la IA”, afirma el investigador.
Lanza: “Hay que estar dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo”.