No todo lo que dice la inteligencia artificial es real. El sistema tecnológico todavía no alcanza la perfección y por lo tanto hay ocasiones en las que puede fallar. Eso era conocido por todo el mundo, pero lo que han notado los ingenieros de OpenAI con el CharGPT es un “fail” mayor.
PUBLICIDAD
Lee más sobre IA: [Ejecutivo de OpenAI revela un dato que asusta al mundo: ChatGPT reemplazará programadores antes de lo que se pensaba]
De acuerdo con lo que informa la misma empresa en un mensaje publicado en su cuenta oficial de X, el ChatGPT “miente” cuando no conoce una respuesta sobre algún requerimiento.
Lo alarmante para los desarrolladores de OpenAI no es que su ChatGPT no sepa una respuesta, porque eso puede ser normal en cualquier sistema que no tenga acceso a cualquier archivo del mundo. El problema está en que detectaron que su chatbot “miente” y disfraza las respuestas erradas con una reconocida técnica digital.
El ChatGPT acude al Chain-of-thought (CoT) para dar una respuesta cuya información no conoce. La traducción de esta técnica es cadena de pensamientos, y lo que notaron es que el chatbot de OpenAI, cuando no sabe algo, hace un desglose de datos, pero el resultado final siempre terminará siendo errado.
Eso es una falla realmente delicada para OpenAI, ya que deja en evidencia que el ChatGPT no está preparado para accionar sin la supervisión de un humano.
La empresa de Sam Altman está intentando resolver el inconveniente reajustando los algoritmos de la revisión que el ChatGPT se hace a sí mismo para poder otorgar una respuesta.
PUBLICIDAD
Recomendaciones de OpenAI
En el mismo posteo, la empresa recomienda no presionar sobre las cadenas de pensamientos del ChatGPT, ya que estas alimentarán el comportamiento errado de sus sistemas.
“Descubrimos que el modelo pensaba cosas como: ‘Hackeemos’, ‘No inspeccionan los detalles’ y ‘Necesitamos hacer trampa para aprobar el examen’, mientras subvertía las pruebas y recompensaba el hackeo en las tareas de codificación”, dijeron los expertos.