La Inteligencia Artificial (IA) es una herramienta que puede beneficiar a la humanidad, pero también ponerla en riesgo. El debate vuelve a estar sobre la mesa tras las declaraciones de dos protagonistas en el desarrollo de la IA.
PUBLICIDAD
Geoffrey Hinton, científico informático e investigador de IA, ha dicho que cree que la IA es “la mayor amenaza existencial a la que se enfrenta la humanidad”. Ha advertido que la IA podría “superarnos en todo” y que podríamos “terminar siendo mascotas o esclavos de la IA”.
Por su parte, Sam Altman, director ejecutivo de OpenAI, ha dicho que cree que la IA es “la tecnología más importante de nuestro tiempo”. Ha advertido que la IA podría “utilizarse para bien o para mal” y que es “crítico que lo hagamos bien”. Las advertencias de los expertos y las opiniones de Hinton y Altman son un recordatorio aleccionador de los peligros potenciales de la IA. Si bien la IA tiene el potencial de beneficiar enormemente a la humanidad, también tiene el potencial de destruirnos.
Advertencias anteriores: la carta del 2015
Un grupo de expertos advertió que la inteligencia artificial (IA) podría representar una amenaza existencial para la humanidad en 2015. Los expertos, que incluyen físicos, informáticos y filósofos, dijeron que la IA podría volverse tan poderosa que fácilmente podría superar y destruir a los humanos.
La carta del 2015 incluía las firmas de Elon Musk, Stephen Hawking e incluso Bill Gates. La carta de cuatro párrafos, titulada “Prioridades de investigación para una inteligencia artificial robusta y beneficiosa: una carta abierta”, establece prioridades de investigación detalladas en un documento adjunto de doce páginas.
En ella advertían que la IA podría “representar un riesgo existencial para la humanidad”. La carta pedía una mayor investigación sobre la seguridad y la ética de la IA e instaba a los gobiernos a tomar medidas para regular el desarrollo de la IA: algo que recién se está abordando, 8 años después.