El uso de la Inteligencia Artificial se ha incrementado de manera impresionante durante los últimos meses. Antes solo se utilizaba en diferentes organizaciones científicas o comerciales, y ahora cualquier persona tiene acceso a estos mecanismos de aprendizaje automático, como el Chat GPT, por ejemplo.
PUBLICIDAD
Suena como algo inofensivo, debido a que sus usos, cuando mucho, son para sistemas de programación. Sin embargo, una reciente investigación científica realizada por expertos de la Universidad de Oxford, ha hecho un par de advertencias y recomendaciones para que se regule su uso.
De acuerdo con una reseña de Yahoo, los científicos declaran ante la Comisión de Ciencia y Tecnología del Reino Unido que la Inteligencia Artificial se podría convertir en una “amenaza existencial”. Dicen que, así como los humanos han extinguido razas de animales, los mecanismos con esta tecnología fácilmente nos podrían exterminar.
“Con la Inteligencia Artificial sobrehumana existe un riesgo particular que es de una clase diferente, que es que podría matar a todo el mundo”, dice Michael Cohen, estudiante de doctorado en Oxford.
“Si tuviéramos algo mucho más inteligente que nosotros tratando obsesivamente de obtener esta retroalimentación positiva, y se hubiera apoderado del mundo para conseguirlo, dirigiría toda la energía que pudiera a asegurar su dominio sobre ello, y eso nos dejaría sin energía para nosotros mismos”, añade Cohen, según el medio citado.
La inteligencia Artificial se humaniza y las personas de digitalizan
Un experto en sistemas de aprendizaje automático (machine learning) de la misma casa de estudios se atreve a decir que incluso se pudiera registrar un enfrentamiento bélico en un futuro.
“Creo que el escenario más sombrío es el de una guerra civil. Pienso que esto es realista porque la Inteligencia Artificial está intentando embotellar lo que hace especiales a los humanos; esa cualidad ha llevado a los humanos a cambiar por completo la faz de la Tierra. Si somos capaces de capturar eso en la tecnología, entonces, por supuesto, va a suponer tanto riesgo para nosotros como el que hemos supuesto para otras especies: el dodo es un ejemplo”, explicó Michael Osborne, investigador de Aprendizaje Automático de la Universidad de Oxford.