Internet

El jefe de inteligencia artificial de Meta cree que el alarmismo por la IA son solo “tonterías”

¿La inteligencia artificial es realmente una amenaza?

La inteligencia artificial (IA) es el último monstruo tecnológico que asusta a la gente sobre el futuro. Las preocupaciones legítimas sobre su impacto ético, medioambiental y las estafas que aprovechan la IA a menudo se transforman en pesadillas al estilo Skynet o Matrix. La idea de que la IA se vuelva consciente y derroque a la humanidad es algo que aparece con frecuencia en conversaciones.

Sin embargo, según Yann LeCun, jefe de IA en Meta, esta idea es “una completa tontería”. En una entrevista con The Wall Street Journal, LeCun describió a la IA como menos inteligente que un gato, incapaz de planear o desear cualquier cosa, y mucho menos conspirar para la caída de nuestra especie.

La IA No Planea Destruir a la Humanidad, Pero...

Publicidad

LeCun tiene razón en que la IA no va a tramar cómo asesinar a la humanidad. Pero eso no significa que no haya preocupaciones legítimas. Un problema mucho más inquietante es cómo las personas pueden llegar a confiar demasiado en la IA y darle un control excesivo sobre decisiones importantes.

Al fin y al cabo, la IA es simplemente una tecnología, y como toda tecnología, no es ni buena ni mala por sí sola. Sin embargo, confiar en ella para tomar decisiones críticas podría llevar a consecuencias indeseadas.

Pensemos en los desastres que han ocurrido cuando se ha confiado demasiado en la tecnología. Un buen ejemplo es el uso de máquinas en los mercados bursátiles, que operan a velocidades mucho mayores que los humanos y han causado más de una crisis económica.

Un caso mucho más grave ocurrió en la era de la Guerra Fría, cuando un sistema soviético de detección de misiles falló y anunció erróneamente que se acercaban ojivas nucleares. Solo un valiente humano al mando pudo evitar el armagedón.

La IA y la Toma de Decisiones: ¿Cuánto Control Debería Tener?

Ahora, imaginemos un mundo donde la IA tiene un control aún mayor sobre decisiones críticas. Si hoy ya usamos IA en áreas como la bolsa de valores, ¿qué pasaría si aceptara la señal de un misil defectuoso y tuviera el poder de activar armas nucleares sin intervención humana? Aunque esto suene exagerado, no es tan diferente de lo que ya ocurre en otros niveles.

Por ejemplo, los asistentes de IA en los servicios de atención al cliente ya pueden decidir si alguien recibirá un reembolso antes de que esa persona siquiera tenga la oportunidad de explicarse.

El Verdadero Riesgo: Humanos Usando Mal la IA

La IA hace solo lo que le enseñamos a hacer, utilizando los datos que le proporcionamos. Esto significa que la IA refleja lo mejor y lo peor de la humanidad. El verdadero problema surge cuando le otorgamos demasiada autoridad para tomar decisiones sin intervención humana. La IA es una herramienta poderosa, pero dejar que decida quién consigue un empleo o si una póliza de seguros cubre una operación es un error.

Debemos estar más preocupados por cómo los humanos pueden usar mal la IA, ya sea por accidente o de forma intencionada, sustituyendo el criterio humano en áreas críticas.

Publicidad

La IA como Copiloto: Ayuda, No Control

La denominación de Microsoft para sus asistentes de IA como “copilotos” es una metáfora excelente. Evoca la imagen de alguien que está allí para ayudarte a alcanzar tus objetivos, pero que no toma el control ni establece metas. La IA debería ser vista de esa forma: como una herramienta que complementa nuestras decisiones, pero sin reemplazar el juicio humano.

Aunque LeCun tiene razón en que la inteligencia artificial no es más inteligente que un gato, incluso un gato con demasiado poder podría causar caos. El objetivo es evitar que ese “gato” nos empuje, metafóricamente hablando, desde el borde de la mesa.

En resumen, aunque las fantasías distópicas sobre una IA que toma el control del mundo pueden ser exageradas, debemos ser cautelosos con cómo utilizamos esta tecnología. La IA no es una amenaza en sí misma, pero su mal uso o su aplicación en áreas críticas sin supervisión humana sí podría serlo. La clave está en encontrar el equilibrio entre aprovechar las ventajas de la IA y no perder de vista la necesidad del criterio humano.

Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último