Sam Altman finalmente es confrontado sobre el mayor problema de ChatGPT y ha esquivado con retórica el debate. Cualquiera que haya utilizado la Inteligencia Artificial (IA) de OpenAI con el debido detenimiento y responsabilidad a estas alturas ya se habrá topado con un problema usual en sus respuestas: las “alucinaciones”.
Se trata de cualquier respuesta generada por la plataforma que suena absolutamente convincente, articulada y hasta justificada con supuestos datos, argumentos y fuentes. Pero al indagar en los mismos es posible comprobar que la respuesta es simplemente una invención de la IA.
ChatGPT en su versión más reciente y variaciones más robustas como Bing Chat pueden llegar al grado de integrar enlaces a las supuestas fuentes de la información que se tomó como base para las respuestas generadas.
Pero al confrontar a la plataforma sobre la inexactitud de la información lo más probable es que el chatbot termine expulsando al usuario y cortando de tajo todo diálogo. Lo que gradualmente se ha venido convirtiendo en un problema con el crecimiento de popularidad de la plataforma.
Ahora el CEO de OpenAI ha sido confrontado directamente sobre este fenómeno y por fin obtuvimos una respuesta. Aunque no sea una realmente convincente. Por el contrario, nos recuerda a la forma exacta en la que su IA elude los hechos.
Sam Altman justifica las “alucinaciones” de ChatGPT: prefiere verlas como una función distintiva más que como un fallo
Hace poco acaba de realizarse el ciclo de conferencias de Dreamforce 2023, en donde una serie de figuras de la industria de las Tecnologías de la Información (IT) se dieron cita para hablar de temas de actualidad.
El evento empezó fuerte con una intervención de Marc Benioff, CEO de Salesforce, anfitrión del evento, quien señaló directamente que el término de “alucinaciones”, para referirse a las respuestas falsas pero convincentes de cualquier IA le parecían más bien un eufemismo para evitar decir que son “mentiras”.
Más adelante el ejecutivo tuvo una charla de diálogo frente a frente con Sam Altman, CEO de OpenAI, responsables de ChatGPT, donde se presenta con mayor frecuencia este fenómeno de imprecisiones.
Lo curioso aquí es que el ejecutivo terminó respondiendo a este punto de controversia con un planteamiento que busca revertir la visión sobre el problema:
“Gran parte del valor de estos sistemas está fuertemente relacionado con el hecho de que alucinan. Son más un feature o característica de sus funciones que un bug o fallo. Si quieres buscar algo en una base de datos, ya hay cosas más útiles para hacerlo”.
La respuesta de Altman es curiosa, particularmente cuando intenta vender a ChatGPT como una herramienta de vanguardia que relevaría a dichas bases de datos que sí tienen la información precisa.