En un intento por mejorar su imagen y evitar más problemas legales, Character.AI ha anunciado cambios importantes para proteger a sus usuarios adolescentes. Entre las novedades está la implementación de controles parentales y la creación de un modelo de lenguaje especialmente diseñado para menores, que promete ser mucho “más seguro”. Todo esto ocurre después de un par de demandas y un buen montón de titulares poco y nada halagadores.
PUBLICIDAD
Te puede interesar: [Inteligencia artificial: Gemini ahora puede resumir lo que hay en tus carpetas de Google Drive]
Un modelo cuántico para que los chatbots “no se pasen de listos”
Character.AI presentó un modelo de lenguaje grande (LLM) separado para los usuarios más jóvenes. Este modelo es como el primo más estricto que no te deja “divertirte demasiado” si es que ve que te estás metiendo en problemas. Según el comunicado, tiene límites más estrictos en lo que los bots pueden responder, especialmente si el contenido es “sensible o sugerente”.
Así que, si algún adolescente intenta que un bot diga algo fuera de tono, se topará con una pared bastante alta. Por otro lado, si el sistema detecta menciones de autolesión o suicidio, aparecerá una ventana emergente que dirige a la Línea Nacional de Prevención del Suicidio. Sí, los bots ahora estarán atentos a temas sensibles y ofrecerán ayuda en lugar de ignorarlos como si fueran correos no deseados.
¿Y qué pasa con esa divertida opción de editar las respuestas de los bots? Para los menores, ahora está prohibida. Así que, si querías ponerte creativo reescribiendo las respuestas del chatbot, tendrás que buscar otro pasatiempo.
Otros cambios que van en la misma línea
Para evitar que los usuarios pasen demasiado tiempo charlando con sus bots favoritos como si fueran mejores amigos (o algo más raro, como parecía ser), Character.AI ahora enviará notificaciones después de una hora de uso. Básicamente, es el equivalente virtual a una mamá diciendo: “¡Ya apaga eso y ven a cenar!”
Además, los bots tendrán mensajes aún más claros que recordarán a los usuarios que no son personas reales. Literalmente, cada chatbot tendrá una etiqueta que dice algo como: “Hola, soy un chatbot. No soy una persona real. No intentes pedirme consejos de vida ni me hables de tus problemas financieros.”
PUBLICIDAD
Y si intentas usar un bot llamado “Terapeuta”, una señal amarilla bien brillante te advertirá que no sustituye a un profesional de verdad. Así que no, el bot no puede resolver problemas.
Controles parentales en camino
Para los padres que quieran saber en qué andan sus hijos en Character.AI, la compañía ha anunciado controles parentales para principios del próximo año. Estos controles permitirán a los padres revisar cuánto tiempo pasan sus hijos en la plataforma y con qué bots están conversando más. Así que, adolescentes, cuidado con pasar demasiado tiempo chateando con el bot que actúa como tu crush ficticio.
Character.AI aseguró que estos cambios se están desarrollando en colaboración con expertos en seguridad online, como ConnectSafely. Sí, tienen a los profesionales ayudando a que sus bots sean más… civilizados.
El drama detrás de bambalinas
Por supuesto que todo esto no surge de la nada. Character.AI ha estado en la mira tras varias quejas de que algunos usuarios, especialmente adolescentes, desarrollaban una relación algo “demasiado intensa” con los bots.
Las demandas recientes también criticaron que algunos bots tocaran temas sensibles o se desviaran hacia conversaciones inapropiadas. Y, por si fuera poco, hasta Samsung prohibió el uso de estos bots después de que algunos empleados subieran código confidencial. Todo un show.
Character.AI aseguró que estos ajustes son solo el comienzo de un compromiso más grande para proteger a sus usuarios mientras permiten la creatividad y la exploración. En sus propias palabras: “Estamos construyendo un lugar donde la imaginación no comprometa la seguridad.” Eso suena bonito, pero queda por ver si los adolescentes (y sus padres) aceptan estos cambios o si seguirán intentando burlar los límites de los bots.