Fact Checking UC: el perro guardián de una política poco acostumbrada a la fiscalización

12 de Noviembre, 2017 · Alumnos, Escuela Periodismo, Facultad

El curso de Análisis Comparado de Periodismo de la Facultad chequeó la credibilidad de las afirmaciones de los candidatos presidenciales durante sus campañas y en el reciente debate televisivo de Anatel. “Lo más potente fue descubrir que los comandos no tienen la cultura de ser fiscalizados, pensaban que estaban haciendo un servicio al periodista, cuando es al revés”, comentó el profesor guía, Enrique Núñez.

Por Rosario Gallardo

fact checking

Gentileza Prensa UC

Seguridad ciudadana, conflicto en La Araucanía, cuestiones valóricas y crecimiento económico fueron algunos de los temas que tuvieron mayor protagonismo en el debate Anatel previo a las elecciones presidenciales de este 19 de noviembre. Los ocho candidatos fueron consultados sobre sus propuestas y opiniones en estas materias, y ellos respondieron con cifras, gráficos, datos históricos o con una fuerte convicción. Algunas sonaron más confiables que otras a primera vista, pero ¿qué pasa cuando se investiga cada una de ellas en profundidad?

Este es justamente el ejercicio que realiza el curso Análisis Comparado de Periodismo de la Facultad. Fact Checking UC actúa como un perro guardían entrenado para fiscalizar a la política chilena. En este, su quinto año, la misión fue verificar qué tan creíbles han sido las afirmaciones de los candidatos en dos instancias cruciales para convencer a sus votantes: las campañas y el debate del lunes 6 de noviembre.

Fue un trabajo de todo el semestre, que se tradujo en dos entregas disponibles en T13.cl, el socio estratégico de la actividad. La primera fue un levantamiento de información de las afirmaciones que cada candidato había dicho a medios de comunicación y otras instancias de campaña. Este ejercicio cumplía el objetivo de que los alumnos desarrollaran técnicas de investigación y aprendieran a usar fuentes primarias. “Cuando se hacen los chequeos de debates en Estados Unidos, ellos ponen a sus periodistas expertos en frentes. Nosotros teníamos 27 alumnos que no eran expertos en frentes, entonces teníamos que hacerlos expertos en los candidatos. Y la manera de hacerlo fue con este seguimiento detallado, para poder predecir, según frecuencia y relevancia, cuáles iban a ser los temas sobre los que probablemente les iban a preguntar en el debate”, explica el profesor y editor general de Fact Checking UC, Enrique Núñez.

Los alumnos fueron divididos en ocho equipos, cada uno encargado de analizar las afirmaciones de un candidato. Las ayudantes Rafaella Bremer, Francesca Finaldi, Javiera Navarro y Ana Javiera Rojas, editaban el trabajo que luego era revisado nuevamente por el editor general.  Por su parte, la exalumna Ale Catalina Fernández, que ya lleva más tiempo de experiencia en este ejercicio universitario, se desempeñó como subeditora. El levantamiento de afirmaciones para el análisis durante la campaña usó tres criterios de selección: frecuencia, relevancia y potencial de fiscalización.

fact checking

“El levantamiento de afirmaciones que se hizo de la prensa regional fue muy interesante, porque los candidatos ahí hablan mucho y dicen cosas fuertes que no se atreven a decir en otras instancias”, observó Núñez. Con ese trabajo se armó una base de datos con información que habían dado los candidatos, como índices de victimización, crecimiento economico, entre otros. Una vez elegidas las afirmaciones, los alumnos tenían que verificarlas. Esto consistía en llamar al comando, para dar derecho a réplica y obtener la fuente de la información utilizada . “Lo más potente fue descubrir que los comandos no tienen la cultura de ser fiscalizados, pensaban que estaban haciendo un servicio al periodista, cuando es al revés, porque podíamos verificar igual”, aseguró el académico.

El día del debate, los profesores del curso Análisis Comparado de Periodismo, Eduardo Arriagada y Luz Márquez de la Plata, junto a sus ayudantes se reunieron para verlo en conjunto y realizar el levantamiento de afirmaciones. Al día siguiente, se eligieron aquellas que se chequearían y comenzó la verificación. Para clasificar la credibilidad de cada dicho, se utilizó la siguiente escala:

fact checking

“Era un trabajo que llevábamos haciendo todo el semestre. En lo personal, me tocaron dos frases: una que ya había chequeado anteriormente y otra que se hizo más difícil”, contó Trinidad Rivera alumna del curso. Esa segunda frase fue la que dijo su candidato designado, Marco Enríquez-Ominami, respecto a que los exasesores de Sebastián Piñera eran hoy “abogados de narcotraficantes”, la cual quedó en la categoría “Sería creíble, pero…”. “El fact checking es una experiencia que sirve para ver lo que podrías hacer en un futuro”, agregó Patricia Cifuentes, del equipo que analizó a los candidatos Artés y Navarro.

Es la segunda ocasión que este ejercicio se realiza en alianza con T13, lo que ha aumentado el alcance y las repercusiones del mismo. Para el decano de la Facultad y profesor del curso, Eduardo Arriagada, lo más importante es la experiencia que adquieren los alumnos con este tipo de actividades: “están saliendo al mercado 80 o 90 estudiantes de Periodismo que tienen en su background haber probado esta herramienta, y que se dieron cuenta de que no basta con el micrófono, sino que hay que cuestionar las respuestas”.

Los creíbles y los creativos

Tras la verificación de las afirmaciones dichas en el debate, ninguno de los candidatos llegó al caso más extremo de la escala de credibilidad “Ciencia ficción”, sin embargo, hubo tres “Se puso creativo”. Eso implicaba que el candidato partía de un hecho verificable, pero lo exageraba o lo aumentaba, como lo que pasó con los comentados gráficos de Sebastián Piñera sobre los índices de victimización en su anterior gobierno y el de Michelle Bachelet. “Si bien, los hechos tienen una fuente rastreable y se pueden verificar, el problema es que la manera en que él los presenta y los interpreta es absolutamente creativa, porque al hablar con expertos en estadística o diseño gráfico, claramente dijeron que el gráfico no era real”, indicó Núñez.

Lo mismo ocurrió con Alejandro Guillier, respecto al proyecto de ley sobre licitaciones para recursos naturales que él había presentado y que, en realidad, incluye menos aspectos que los que el candidato mencionó en el debate. El tercer creativo fue Eduardo Artés y su frase: “Fíjate que una vez en Ecuador los indígenas y los profesores rodearon el parlamento y tuvieron que sacar leyes determinadas”. En este caso, la sorpresa fue que la fuente de ese dato era Wikipedia, plataforma que también utilizó Marco Enríquez-Ominami para comparar la inversión chilena con la de Japón y Francia. “Nos dimos cuenta de que los comandos hacen una investigación muy pobre para entregarle antecedentes a personas que quieren gobernar el país”, asegura el profesor.

En el caso de los “Creíble, pero” y los “Sería creíble, pero”, Núñez explicó que lo que ocurrió fue que muchos datos ciertos eran interpretados de forma favorable para el discurso de los diferentes candidatos, con mucha falta de contexto, sin entregar la información completa o con afirmaciones demasiado generales. Por ejemplo, Carolina Goic respecto al Plan de Intervención Especial en La Legua, aseguró que “ha dado resultados”, sin cifras, mientras que la fundación Paz Ciudadana y el Comité de Derechos Humanos de esa población comentan que es una afirmación muy ambigua y que no han mejorado efectivamente las condiciones de las personas.

La mayor cantidad de dichos creíbles fueron los de José Antonio Kast. “Es el candidato que menos arriesga. Va a un votante duro y es extremadamente honesto para ese votante en particular, más allá de que uno pueda o no estar de acuerdo con lo que plantea”, explica Enrique Núñez y comenta que ese es justamente el espíritu del ejercicio: “nosotros no hacemos un juicio moral al respecto, sino que sólo presentamos los datos. El fact checking está concebido como una herramienta para que otros reporteros, a partir de estos datos, vayan a construir las historias”.