Internet

¿Estamos cerca de una superinteligencia artificial? Te contamos por qué algunos lo ven como un riesgo existencial

Expertos aseguran que el debate sobre la superinteligencia no solo se trata de tecnología,sino de cómo queremos dar forma al futuro de la humanidad.

En la última década, la inteligencia artificial (IA) ha dado saltos gigantescos, desde asistentes virtuales hasta herramientas creativas que generan arte o escriben poesía; sin embargo, una idea sigue rondando las mentes de científicos y expertos: ¿qué pasará cuando estas máquinas sean más inteligentes que nosotros?

Lee también: [¿Vida en las lunas de Urano? Un nuevo estudio sugiere que es posible]

La palabra “superinteligencia” puede sonar a ciencia ficción, pero es un término muy real en los círculos académicos. En pocas palabras, se refiere a sistemas de IA que no solo igualan, sino que superan ampliamente las capacidades humanas en prácticamente todas las áreas, desde resolver problemas complejos hasta tomar decisiones estratégicas.

Publicidad

El filósofo Nick Bostrom fue uno de los primeros en popularizar este concepto en su libro Superinteligencia: caminos, peligros, estrategias (2014). Bostrom alertó sobre los riesgos de perder el control de estas superinteligencias y planteó escenarios en los que podrían poner en peligro nuestra existencia.

¿Cuánto falta para alcanzar la superinteligencia?

Aunque suene lejana, algunos líderes tecnológicos creen que podría estar más cerca de lo que pensamos. Sam Altman, director de OpenAI (empresa detrás de ChatGPT), estima que podríamos ver avances significativos en “unos pocos miles de días” (alrededor de 10 años).

De hecho, OpenAI y otros grupos de investigación ya están trabajando en cómo hacer que esta tecnología sea “segura”. Ilya Sutskever, cofundador de OpenAI, incluso creó una nueva empresa con un financiamiento de US $1.000 millones para estudiar cómo lograr que estas futuras máquinas actúen en favor de los humanos y no en contra de ellos.

¿Qué tan avanzada es la IA hoy?

Para entender dónde estamos en el camino hacia la superinteligencia, la investigadora Meredith Ringel Morris propuso un marco que clasifica las capacidades de la inteligencia artificial (IA) en seis niveles:

  • 1. Sin IA: Sistemas básicos que realizan tareas según reglas explícitas y predefinidas, como una calculadora. No tienen capacidad de aprendizaje ni adaptación.
  • 2. Emergente: Sistemas que muestran habilidades similares o ligeramente superiores a las de un humano no capacitado. Los modelos de lenguaje como ChatGPT se encuentran actualmente en este nivel, ya que pueden realizar tareas simples pero aún presentan limitaciones importantes.
  • 3. Competente: Sistemas que igualan o superan al 50% de los adultos capacitados en tareas específicas. Este nivel representa un salto significativo, pero aún no hemos alcanzado este punto con los modelos de IA general actuales.
  • 4. Experta: IA que realiza tareas con la misma habilidad o incluso mejor que expertos humanos en campos específicos. Por ejemplo, Alphafold, que predice estructuras de proteínas con una precisión sobrehumana, está en esta categoría para su ámbito particular.
  • 5. Virtuosa: Sistemas que operan a un nivel que supera consistentemente a casi todos los humanos en tareas complejas. Un ejemplo histórico es Deep Blue, el programa de ajedrez que venció al campeón mundial Garry Kasparov en 1997.
  • 6. Sobrehumana: El nivel más avanzado, donde los sistemas son significativamente más inteligentes y eficientes que cualquier ser humano en prácticamente todas las áreas. Este es el umbral de la superinteligencia que aún no hemos alcanzado. Además de estos niveles, Morris distingue entre sistemas estrechos (especializados en tareas limitadas) y generales (capaces de abordar una amplia variedad de tareas). La mayoría de los sistemas actuales son estrechos, incluso cuando tienen capacidades virtuosas en su ámbito específico, mientras que la IA general sigue en etapas iniciales y emergentes.
Publicidad

Los riesgos que ya están aquí

La buena noticia es que no hay evidencia de que las máquinas estén por apoderarse del mundo en el corto plazo. Pero eso no significa que la IA esté exenta de riesgos:

● Dependencia excesiva: Usar herramientas como ChatGPT para tareas cotidianas podría hacer que dependamos demasiado de ellas y descuidemos nuestras propias habilidades.

● Desplazamiento laboral: A medida que la IA asume tareas complejas, muchos trabajos podrían volverse obsoletos.

Publicidad

● Relaciones parasociales: Algunas personas ya interactúan con chatbots como si fueran amigos o confidentes, lo que podría tener implicaciones psicológicas profundas.

Dicho esto, según diversos expertos, si algún día logramos crear una superinteligencia completamente autónoma, el verdadero reto será asegurarnos de que esté alineada con nuestros valores e intereses. Esto requerirá una colaboración multidisciplinaria que combine ingeniería, ética y políticas públicas.

Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último