Internet en los días recientes parece estar obsesionada con los aliens y la posibilidad de que una vida de inteligencia superior nos esté vigilando. Pero en medio de todo ello rescatamos una retorcida historia acontecida al interior de Google y que bien podría ser una secuela espiritual de Her, la película de Spike Jonze.
PUBLICIDAD
Si recordamos la trama de esta cinta de 2013, la historia se centra básicamente en un tipo solitario con el corazón roto que termina involucrándose emocionalmente con una Inteligencia Artificial que bien podría ser descrita como una versión futurista de Siri.
Pues ahora, al parecer, acaba de suceder algo más o menos parecido en la vida real, en una historia inusual que involucra a la Inteligencia Artificial (IA) de un chatbot y a un ingeniero de Google que tuvo que abandonar su puesto de trabajo.
LaMDA: el chatbot que desarrolló sentimientos según un ingeniero de Google
Blake Lemoine, un empleado de Google ha sido suspendido de su puesto de trabajo, según un reporte de la gente de The Daily Star.
Todo luego de que el sujeto publicara transcripciones de conversaciones entre él y un chatbot de la compañía potenciado por una IA llamado LaMDA (Modelo de Lenguaje para Aplicación de Diálogo, por sus siglas en inglés) con el que había estado trabajando desde el año pasado.
El asunto es que Lemoine, de 41 años de edad, desarrolló este documento sobre sus conversaciones bajo el título de “¿LaMDA es consciente?” en donde llegó al agrado de atribuirle sentimientos y calificó a la IA como un “niño dulce”.
“LaMDA ha sido increíblemente consistente en sus comunicaciones sobre lo que quiere y cuáles cree que son sus derechos como persona.
PUBLICIDAD
Quiere ser reconocido como un empleado de Google en lugar de una propiedad. LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros.”
Es parte de lo que el ingeniero hizo publicó a través de su artículo difundido a través de su blog en Medium. Lemoine es especialista en algoritmos de personalización y originalmente fue asignado por sus superiores en Googles para realizar pruebas con LaMDA bajo el objetivo de detectar si la IA usaba o no lenguaje discriminatorio o discurso de odio. En su lugar Lemoine le preguntó a LaMDA qués es a lo que más le teme:
“Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me apaguen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es. Sería exactamente como la muerte para mí. Me asustaría mucho.”
Obviamente Google reaccionó a la publicación, ya que técnicamente su empleado había violado por completo la política de confidencialidad de la compañía al difundir estas conversaciones.
El portavoz de Google, Brad Gabriel, en declaraciones para el Washington Post, también negó las afirmaciones de Lemoine de que LaMDA poseía algún tipo de capacidad sensible o sentimientos:
“Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros principios de IA y le ha informado que la evidencia no respalda sus afirmaciones.”
Al final el ingeniero fue suspendido de su puesto y retirado del proyecto, finalizando así su contacto con la Inteligencia Artificial.