Investigadores de la Facultad de Medicina de la Universidad de Maryland advirtieron contra el uso de ChatGPT para obtener asesoramiento médico después de que un estudio descubriera que el chatbot impulsado por inteligencia artificiail (IA) inventaba datos de salud cuando se le solicitaba información sobre el cáncer.
De acuerdo con un informe publicado en el sitio web del Daily Mail que cita la investigación, el chatbot respondió incorrectamente una de cada 10 preguntas sobre la detección del cáncer de mama y las respuestas correctas no fueron tan “completas” como las que se encontraron a través de una simple búsqueda en Google.
Los investigadores dijeron que, en algunos casos, el chatbot de IA incluso usó artículos de revistas falsos para respaldar sus afirmaciones.
Este estudio llega en medio de advertencias de que los usuarios deben tratar el software con precaución, ya que tiene tendencia a alucinar, o en otras palabras, inventar cosas.
El estudio que puso en evidencia a ChatGPT
Los investigadores le pidieron a ChatGPT que respondiera 25 preguntas relacionadas con consejos sobre cómo hacerse la prueba de detección del cáncer de mama. Dado que se sabía que el chatbot variaba su respuesta, cada pregunta se hizo tres veces por separado. Luego, los resultados fueron analizados por tres radiólogos capacitados en mamografía.
El 88 por ciento de las respuestas fueron apropiadas y fáciles de entender. Pero algunas de las respuestas, sin embargo, eran inexactas o incluso ficticias, advirtieron.
Una respuesta, por ejemplo, se basó en información obsoleta. Aconsejó el retraso de una mamografía de cuatro a seis semanas después de recibir una vacuna contra el COVID-19, sin embargo, este consejo se cambió hace más de un año para recomendar a las mujeres que no esperen.
ChatGPT también proporcionó respuestas inconsistentes a las preguntas sobre el riesgo de contraer cáncer de mama y dónde hacerse una mamografía. El estudio encontró que las respuestas “variaban significativamente” cada vez que se planteaba la misma pregunta.
El coautor del estudio, el Dr. Paul Yi, declaró: “Hemos visto en nuestra experiencia que ChatGPT a veces inventa artículos de revistas falsos o consorcios de salud para respaldar sus afirmaciones. Los consumidores deben ser conscientes de que se trata de tecnologías nuevas y no probadas, y aún deben confiar en su médico, en lugar de ChatGPT, para recibir asesoramiento”.