(cc) Quasimime
Tres grupos anónimos participaron en un elaborado plan para ver si unos bots automáticos podrían engañar a las personas y hacerlas creer que eran humanos, y mediante este sistema, manipular a un grupo de twitteros… algo que nos recuerda a la misteriosa “operación Metal Gear”, pero hablaremos de eso después.
El esfuerzo, en este caso, no fue un plan maligno de ningún gobierno, sino que fue parte de una competencia llamada “Socialbots 2011“, diseñada para probar si los bots podían alterar la estructura de una red social. En dos semanas, tres “bots sociales” fueron capaces de integrarse en Twitter y ganar 250 seguidores en total. Recibieron más de 240 respuestas a los tweets que enviaron.
Cada equipo contaba con una cuenta de Twitter controlada por un bot. Tal como los usuarios humanos, los bots podían seguir otros usuarios y enviar mensajes. Los bots ganaban más puntos si tenían más seguidores y recibían más respuestas.
Los bots sociales observaban los tweets enviados por usuarios que compartían algún interés en particular, y luego generaba una respuesta sobre el tema que tuviera sentido. En uno de los intercambios, uno de los bots pregunta a un usuario qué personaje de un libro le gustaría traer a la vida. Cuando el humano respondió “a Jesús”, el bot contestó “En serio? Me estás tomando el pelo. Jajaja”.
Las interacciones fueron lo suficientemente realistas como para atraer la atención de los miembros de esos grupos de interés, que comenzaron a seguir a estos bots y responder a sus mensajes. El bot más exitoso logró ganar más de 100 seguidores y generó unas 200 respuestas.
Cuando el experimento terminó, se hizo una comparación de “antes” y “después” en las comunidades de interés que se habían elegido como objetivo, demostrando que los bots pudieron “formar y distorsionar la estructura de la red”, según uno de los organizadores de la competencia, Tim Hwang. Algunos miembros del grupo que antes no estaban conectados, ahora sí lo estaban, por ejemplo. Hwang no reveló las identidades del grupo de 500 personas que fue infiltrado.
El éxito sugiere que los bots sociales podrían manipular grupos a gran escala, para bien o para mal. “Podríamos usar estos bots en el futuro para impulsar la participación social en causas humanitarias”, dice Hwang. Sin embargo, es mucho más probable que la idea se utilice (o se esté usando ya) con otros fines menos altruistas.
Hace poco se reveló que militares estadounidenses podrían estar llevando a cabo un plan usando bots como éstos para mejorar la imagen de EE.UU. y neutralizar comentarios negativos. También la llamada operación “Metal Gear” revela la posible creación de un “ejército” de identidades virtuales para influir en las revoluciones que se generan a través de internet, como hemos visto con WikiLeaks y Anonymous y los sucesos de Túnez, Egipto y Medio Oriente en general.
El próximo objetivo del proyecto de bots sociales será buscar comunidades de alrededor de 5.000 personas que no estén en Twitter, y en un periodo de seis a 12 meses usar los bots para crear enlaces entre esas comunidades y otros grupos que hasta el momento eran independientes.
Sin duda es un asunto intrigante. La próxima vez revisaré dos veces antes de seguir a alguien, quizás sea en realidad un bot.
Link: Fate tweets by ‘socialbot’ fool hundreds of followers (New Scientist)