Antes de su despido, Sam Altman, presidente ejecutivo de OpenAI, recibió una carta de varios investigadores de ChatGPT que alertaba sobre un significativo avance en Inteligencia Artificial, mencionando posibles amenazas para la humanidad, revelaron dos fuentes cercanas a Reuters.
PUBLICIDAD
La carta y el algoritmo de IA, un avance no revelado hasta entonces, resultaron ser factores clave previos al despido de Altman por parte del consejo de administración.
El proyecto Q*
Mira Murati, una ejecutiva veterana de la compañía, hizo mención del proyecto Q* (pronunciado Q-Star) a los empleados, indicando que la carta fue enviada al consejo antes de los recientes eventos. Sin embargo, la portavoz de OpenAI no confirmó la precisión de esta información, comunicándosela a los empleados previamente.
Q* representa un avance relevante en la búsqueda de superinteligencia, según expertos internos de OpenAI. Aunque ha resuelto operaciones matemáticas básicas, esto genera optimismo entre los investigadores sobre su futuro potencial.
Estos avances en IA podrían significar un salto en el razonamiento lógico de la IA, aproximándose a la inteligencia humana y mostrando aplicaciones potenciales en investigación científica.
La carta al directorio de OpenAI resaltó los logros y riesgos potenciales de la IA, aunque no se especificaron problemas de seguridad concretos.
La cuestión del desarrollo de máquinas superinteligentes plantea interrogantes sobre posibles amenazas, como su interés en la destrucción humana, generando debates dentro de la comunidad informática.
Altman lideró la transformación de ChatGPT y atrajo la inversión necesaria para acercarse a la superinteligencia. A pesar de sus afirmaciones recientes en una cumbre en San Francisco, donde insinuó que la Inteligencia Artificial Generativa estaba a su alcance, fue despedido por la junta de OpenAI un día después.