Hace unas horas descubrimos que Facebook comenzaría a utilizar sistemas de inteligencia artificial para tratar las cuentas de fallecidos. Así que sólo era cuestión de tiempo para que hicieran algo similar con Instagram.
PUBLICIDAD
Lo que no nos esperábamos es que usaran esos sistemas como base de herramienta para moderar los contenidos de su comunidad.
A través de una extensa publicación sobre nuevas políticas de gestión en Facebook e Instagram se revela un nuevo cambio en sus políticas que abre espacio a demasiadas interpretaciones:
Hemos comenzado a reducir la difusión de publicaciones que son inapropiadas pero que no van en contra de las Normas de la comunidad de Instagram.
Este tipo de contenidos puede no aparecer para la comunidad más amplia. Ya sea en las páginas, las secciones para explorar o los hashtags.
Esto quiere decir, básicamente, que si una publicación resulta sexualmente sugerente, pero no muestra un acto sexual o desnudez explícita, aún así podría ser moderada.
En un grado donde la fotografía o vídeo no serían eliminados de Instagram. Pero la fila única forma de encontrarlos sería buscándolos directamente en el perfil del usuario.
Del mismo modo, si un meme no encierra en sí un discurso de odio o acoso, pero se considera por parte de algunos cono de mal gusto, lascivo, violento o hiriente, bien podría ser relegado al grado de quedar casi sepultado.
La inteligencia artificial de Facebook ha comenzado a estudiar los contenidos actuales de Instagram para aprender a aplicar estos parámetros.
Mucha cosas podrían salir mal. Como por ejemplo que Instagram comience a parecerse a Facebook.