Internet

Dos ex-OpenAi crearon una empresa a partir de la crisis con Sam Altman y quieren hacer lo que no les dejaron

Buscan dar un nuevo enfoque al uso de la inteligencia artificial.

OpenAI / Wired
OpenAI / Wired Dos ex-OpenAi crearon una empresa a partir de la crisis con Sam Altman y quieren hacer lo que no les dejaron

Todos recordamos un suceso que marcó la industria tecnológica -no por una buena razón- en noviembre del 2023: La comunidad de inteligencia artificial (IA) se vio sacudida por una inesperada controversia que involucraba a OpenAI, una de las organizaciones de investigación en IA más renombradas del mundo, y su ex CEO, Sam Altman. A pesar de que los detalles exactos del conflicto aún no se han revelado por completo, diversos informes y filtraciones apuntan a una serie de factores clave:

PUBLICIDAD

Se sospechaba que Altman, además de ser CEO de OpenAI, tenía inversiones en empresas de IA privadas que podrían competir con la propia OpenAI. Esto generó dudas sobre su imparcialidad y su capacidad para liderar la organización de manera ética. Por otro lado, Altman habría utilizado tácticas de manipulación para influir en las decisiones de la junta directiva y habría exhibido un comportamiento agresivo hacia algunos empleados.

Pero por sobre todo, existían desacuerdos entre Altman y otros miembros de la junta directiva de OpenAI sobre la dirección estratégica de la organización. Algunos argumentaban que Altman priorizaba el desarrollo de tecnologías de IA de alto riesgo, mientras que otros defendían un enfoque más cauteloso y centrado en la seguridad y la ética.

La respuesta de dos ex-OpenAI

Pero no todo quedó en nada: Ilya Sutskever, cofundador de OpenAI, a partir de esta situación lanzó su nueva empresa, Safe Superintelligence (SSI), con el ambicioso objetivo de desarrollar inteligencia artificial superinteligente segura. El nacimiento de SSI marca un hito en la comunidad de la IA, ya que surge de las cenizas del debate interno que llevó a la salida de Sutskever de OpenAI.

Sutskever y otros investigadores como Jan Leike habían expresado su preocupación por la priorización de “productos brillantes” frente a la seguridad en OpenAI, lo que finalmente condujo a su salida.

SSI se diferencia de otras empresas de IA por su enfoque principal en la seguridad. Su misión es desarrollar sistemas de IA superinteligentes que sean beneficiosos y seguros para la humanidad, evitando posibles consecuencias catastróficas.

El desafío de la superinteligencia segura: Crear una IA superinteligente segura es una tarea compleja que implica superar varios obstáculos:

PUBLICIDAD

  • Problema de alineación: Garantizar que los sistemas de IA actúen de acuerdo a los valores humanos.
  • Escalabilidad de la seguridad: Desarrollar métodos de seguridad que puedan adaptarse a sistemas de IA cada vez más complejos.
  • Equilibrio entre velocidad y seguridad: Avanzar en el desarrollo de la IA sin comprometer la seguridad.

A pesar de las dudas que algunos analistas han expresado sobre el concepto de “superinteligencia segura”, el lanzamiento de SSI es una señal positiva del compromiso de algunos investigadores con el desarrollo responsable de la IA.

Atracción de talento y financiación

SSI busca atraer a investigadores con un fuerte interés en el desarrollo seguro de la IA, y su éxito dependerá en gran medida de la financiación que reciba y de los socios con los que se asocie.

La entrada de SSI en el panorama de la IA intensifica la competencia por desarrollar sistemas de IA seguros y confiables. Queda por ver qué empresas liderarán esta carrera y qué impacto tendrán sus avances en el futuro de la humanidad.

SSI se presenta como un actor clave en la búsqueda de un futuro de IA seguro y beneficioso para todos.

PUBLICIDAD

Tags


Lo Último