¿Recuerdan cuando la inteligencia artificial de Microsoft, Tay, resultó ser racista luego de interactuar un rato con la raza humana? Pues resulta que a su sucesora, Zo, le acaba de suceder algo similar y los culpables fueron los ilustres editores de Buzzfeed.
Pero luego, de repente, soltó un par de comentarios contra el Corán y el desempeño del gobierno en la captura de Osama Bin Laden:
Publicidad
En mayor o menor medida se podría argumentar que Buzzfeed corrompió a Zo, pero lo cierto es que la plataforma que dio origen a Tay aún se encuentra en una etapa endeble y sería muy fácil hacerla decir declaraciones controvertidas.
Luego de esta revelación el destino de Zo es incierto.
Tal vez Microsoft debería dejar de hacer bots millennials.
Publicidad