Internet

IA vs periodismo ¿Qué está haciendo la inteligencia artificial para detectar sesgos en los medios de comunicación?

¿ChatGPT amenaza a FayerWayer?

FOTO: Agencia Enfoque
Periodismo. El diputado de Morena, Andrés Villegas, presentó una polémica iniciativa para crear la Ley de Derechos para el Libre Ejercicio del Periodismo. FOTO: Agencia Enfoque

Recientemente, Los Angeles Times ha decidido usar inteligencia artificial para etiquetar artículos que adoptan una postura o están escritos desde una perspectiva personal. ¿El resultado? Un caos mediático y una rebelión en la sala de redacción.

PUBLICIDAD

Te puede interesar: [¿Se acaba el mito del plagio con IA? Un estudio dice que tiene un impacto muy bajo en el comportamiento escolar]

La idea suena bien en teoría: si un artículo no es completamente neutral, se le pone una etiqueta de “Voces” para que los lectores sepan que tiene un ángulo. Además, la IA agrega un resumen con “diferentes puntos de vista” sobre el tema.

Pero aquí está el problema: la IA no siempre tiene criterio y ya ha generado interpretaciones que han dejado a más de uno con la ceja levantada.

Cuando la IA analiza noticias… y mete la pata

Para los periodistas del LA Times, la implementación de IA en el análisis editorial no cayó nada bien. El sindicato del medio criticó la iniciativa, argumentando que sin la supervisión de editores humanos, el sistema podría confundir a los lectores en lugar de ayudarlos.

Y, bueno… no pasó ni un día antes de que esto ocurriera.

  • En un artículo sobre los peligros de la IA en documentales históricos, la herramienta etiquetó la historia como “alineada con un punto de vista de centroizquierda” y sugirió que la IA en realidad democratiza la narración histórica.
  • En una pieza sobre el Ku Klux Klan en California, la IA añadió una viñeta que sugería que el Klan no era solo un movimiento de odio, sino también una “respuesta a los cambios sociales”. ¿En serio?

La reacción fue inmediata. Los lectores y periodistas comenzaron a cuestionar hasta qué punto estos “insights” de la IA realmente ayudan a identificar sesgos o simplemente terminan metiendo la pata.

PUBLICIDAD

El problema de confiar demasiado en la IA para interpretar noticias

El caso del LA Times no es el único. Otras experiencias con IA en el periodismo han sido, digamos… curiosas.

  • MSN utilizó IA para generar recomendaciones de lugares turísticos y terminó sugiriendo un banco de alimentos en Ottawa como un buen lugar para almorzar..
  • Apple Intelligence tuvo que modificar su sistema de resúmenes después de que distorsionara un titular de la BBC, haciendo que pareciera que un sospechoso de asesinato se había disparado a sí mismo, cuando en realidad no era así.

¿Es posible que la IA detecte sesgos en los medios de forma confiable?

La IA puede ser una gran herramienta para ayudar a los periodistas a analizar datos, encontrar patrones y verificar hechos, pero confiar en ella para interpretar el tono y la intención detrás de un artículo es un terreno peligroso.

Los medios como Bloomberg, The Wall Street Journal, The New York Times y The Washington Post ya utilizan IA, pero en la mayoría de los casos, la emplean para organizar información, transcribir entrevistas o automatizar tareas repetitivas.

El problema es que, cuando se usa IA para evaluar el contenido editorial, necesita una supervisión humana constante. Sin contexto, la IA puede terminar dando interpretaciones absurdas, dañando la credibilidad del medio en lugar de mejorarla.

Conclusión: la IA puede ayudar, pero no reemplazar el juicio humano

La idea de usar inteligencia artificial para detectar sesgos tiene potencial, pero como ha demostrado el experimento del LA Times, dejar que la IA actúe sin control puede llevar a resultados confusos o directamente erróneos.

Te puede interesar: [¿Cómo se está preparando Microsoft para el modelo GPT-5 de OpenAI?]

En resumen: la IA puede analizar datos, pero el criterio sigue siendo humano.

PUBLICIDAD

Tags


.

Lo Último