COMPARTE ESTA PUBLICACIÓN
- Iniciokeyboard_arrow_right
- Docenteskeyboard_arrow_right
- Uso de la IA en periodismo: la confianza depende del control humano
Uso de la IA en periodismo: la confianza depende del control humano
Un estudio liderado por académicos de la Facultad de Comunicaciones UC muestra que la credibilidad de los medios no depende del uso de inteligencia artificial generativa con fines periodísticos, sino de cómo se utiliza y quién se hace responsable de los contenidos.
La inteligencia artificial generativa ya se instaló en múltiples ámbitos de la vida cotidiana y el periodismo no quedó fuera. Sin embargo, la pregunta relevante no es simplemente si los medios usan la IA, sino cómo ese uso es percibido por las audiencias. ¿Afecta la credibilidad de los medios saber que una noticia fue producida —total o parcialmente— con ayuda de esta tecnología? ¿Qué condiciones hacen aceptable su uso entre los usuarios?
Estas preguntas están en el centro del estudio “The Effects of Generative AI in News on Media Credibility and Selectivity” (Los efectos de la IA generativa en las noticias sobre la credibilidad y la selectividad de los medios), publicado recientemente en la revista Digital Journalism, codiseñado por los académicos de la Facultad de Comunicaciones UC Sebastián Valenzuela e Ingrid Bachmann, y en cuyo análisis participaron las profesoras Porismita Borah, de Washington State University y la cientista política Natalia Solís, estudiante de magíster en la Universidad de Barcelona.
A partir de un experimento con más de 2.000 participantes en Chile, el estudio introduce una innovación metodológica clave: en lugar de preguntar opiniones abstractas sobre la IA, los encuestados debieron elegir entre medios hipotéticos con distintas políticas de uso de IA. Es decir, enfrentaron decisiones concretas, obligándolos a ponderar atributos en competencia.
El resultado es claro: las audiencias no rechazan la inteligencia artificial en el periodismo, pero sí demandan reglas claras, transparencia y supervisión humana visible.
Supervisión humana: señal central de responsabilidad
El hallazgo más robusto del estudio es el valor que las audiencias asignan a la supervisión humana de la IA. Los medios que declaraban una revisión editorial completa de contenidos generados con IA tenían alrededor de un 15 % más de probabilidad de ser percibidos como creíbles y de ser elegidos para el consumo de noticias. La divulgación explícita del uso de IA añadía otro incremento del 11 %.
Más que una preferencia por lo “humano” en abstracto, este resultado parece reflejar una expectativa de responsabilidad. “La gente no está evaluando la tecnología en sí, sino si hay alguien claramente responsable detrás del contenido”, explica Sebastián Valenzuela. “La supervisión humana funciona como una señal visible de que esa responsabilidad no se delega completamente a la máquina”.
En esa línea, la profesora Bachmann subraya que “se espera que haya medidas de control visibles y conocidas y eso se valora por encima de cualquier mejora en la eficiencia que podría haber con otros usos de IA con fines periodísticos, como la personalización de contenidos, los resúmenes o la transcripción”.
Sebastián Valenzuela refuerza esta idea: “la gente lo que quiere es que el uso de IA se haga con supervisión humana, es decir, que el periodismo no deje que la tecnología reemplace la labor editorial, que siempre un humano va a hacer mejor que una máquina”.
“El periodismo ha sido históricamente una actividad centrada en las personas y claramente todavía se espera que la producción de contenidos periodísticos sea hecha por humanos. Los resultados del experimento indican que un periodismo con participación humana visible es visto como una señal de responsabilidad profesional”, acota la profesora Bachmann.
Transparencia: si usamos IA, es mejor decirlo
Otro factor decisivo en el juicio que hacen las audiencias al uso de la IA en el periodismo es la transparencia. Informar explícitamente que se utilizó IA genera un aumento adicional cercano al 11% en credibilidad y preferencias por un medio.
Este efecto no parece depender de detalles técnicos. Más bien, actúa como una señal institucional. “Se puede partir con normas explícitas respecto de las políticas editoriales sobre usos de IA. Así como los medios declaran su financiamiento o estándares editoriales, también pueden decir claramente cuándo y cómo usan inteligencia artificial, y si hay supervisión humana”, plantea Bachmann. Como ejemplo de una buena práctica, la profesora destaca al medio británico The Guardian, que explicita de qué manera usa la inteligencia artificial generativa: How the Guardian is using GenAI | | The Guardian.
Valenzuela añade que existe una oportunidad poco aprovechada por los medios: “Muchos medios temen que reconocer el uso de IA afectará su imagen, pero el experimento sugiere lo contrario. La falta de transparencia puede interpretarse como falta de responsabilidad”.
Para los medios, el mensaje es claro: aumentar el uso de IA sin hacer visible su gobernanza difícilmente fortalecerá la confianza, e incluso podría debilitarla. En cambio, invertir en mecanismos claros de supervisión, transparencia y comunicación puede tener efectos más significativos que mejoras marginales en automatización de contenidos vía IA.
Formación en periodismo: incorporar la IA desde el comienzo
El avance de la inteligencia artificial también plantea retos para la formación de periodistas y comunicadores. “La IA ha crecido de manera vertiginosa y es tentador dejarse llevar por la moda”, señala Bachmann. “Pero es clave entender cuál es el valor diferencial del comunicador humano y qué parte del trabajo creativo no puede ser automatizado. Como universidad debemos capacitar a nuestros estudiantes en el uso de esta tecnología, pero también en ayudarles a comprender los desafíos profesionales que supone”.
Desde la perspectiva de Valenzuela, las universidades tienen un rol fundamental: “Los departamentos de periodismo y facultades de comunicación deben mostrar lo que está pasando afuera en IA y noticias y cómo se puede, creativa, responsable, y éticamente, usar la IA para hacer buen periodismo”, sostiene, y agrega que la universidad es una etapa de experimentación, donde uno puede comprender los costos y beneficios del uso de la IA. Además, destaca casos internacionales de buen uso de la IA, como medios de Brasil y Argentina: “Clarín ha hecho verdaderos ejercicios de ir probando, testeando, experimentando, tratando de encontrar cuál es el punto donde hay una aceptación por parte de la gente, sin que eso signifique un problema, en el sentido de que haya una contrarreacción”.El estudio liderado por los profesores Valenzuela y Bachmann marca un punto de partida e invita a la reflexión sobre el uso de la inteligencia artificial generativa en los medios, sus políticas de transparencia y la demanda por supervisión humana, un requerimiento que las audiencias parecen estar lejos de dejar de exigir al periodismo.
INFORMACIÓN