Si es usted seguidor asiduo de blogs sobre el futuro del periodismo, uno de los consejos que habrá visto con frecuencia será el de invertir en "periodismo de datos". Es un consejo pertinente: por tradición, sobre todo en el mundo hispanohablante, el periodista ha sido una criatura más literaria y romántica que matemática y analítica. Pero tampoco pretendamos redescubrir la rueda: el "periodismo de datos" tiene raíces muy largas.
A principios de los años 70, Philip Meyer, profesor emérito ya jubilado de la Universidad de Carolina del Norte en Chapel Hill, publicó Precision Journalism, libro que, después de varias ediciones, se estudia demasiado poco en facultades de periodismo y se conoce todavía menos dentro de las redacciones. Una desgracia, pues su relevancia es creciente.
Meyer propugnaba un periodismo que tomase prestadas de las ciencias sociales herramientas conceptuales de análisis cuantitativo. Su propuesta estaba en sintonía con lo que sucedía en varios medios americanos, que habían ido incorporando a sus plantillas a profesionales con conocimientos de estadística y a especialistas en gestión de bases de datos.
A medio plazo, dicha tendencia tuvo efectos notables: en 1993, The Miami Herald ganó un Pulitzer por un especial de dieciséis páginas sobre la devastación provocada por el huracán Andrew titulado What Went Wrong?. Gracias a un masivo esfuerzo de data crunching, el Herald demostró que la destrucción se debía en gran medida a errores en las leyes de edificación de Florida y a las escasas inspecciones de calidad del gobierno. El suplemento, publicado el 20 de diciembre de 1992, combinaba textos, fotografías y excelentes infográficos; puede verse entero en la cuenta de Flickr de Daniel X. O'Neil, que no por casualidad es uno de los fundadores de EveryBlock, uno de los mejores ejemplos modernos de periodismo de servicio público.
Hoy, los grandes medios de comunicación estadounidenses cuentan con departamentos dedicados a este llamado "periodismo de investigación asistido por ordenador". El de The New York Times, liderado por Aron Pilhofer y formado por varios periodistas/programadores, fue la pieza fundamental en la organización de los miles de documentos del Departamento de Estado de EEUU filtrados por Wikileaks; también colabora estrechamente con el equipo de infografía del NYT en proyectos de visualización interactiva como Mapping America, que permite explorar los datos del censo usando la API de Google Maps.
La importancia de la colaboración de los equipos de Pilhofer, Steve Duenes (infografía) y Andrew DeVigal (multimedia) dentro del diario fue objeto hace algún tiempo de un extenso reportaje en el New York Magazine. La autora, Emily Nussbaum, se preguntaba si ese grupo de "renegados cybergeeks" iba a tener un papel decisivo en "salvar" a la Vieja Dama Gris, apodo cariñoso con el que se conoce al diario.
A pesar de que el caso del NYTimes es el más visible dentro del "periodismo de datos" contemporáneo (por ser el más exitoso), no es el único. El grupo Gannett, propietario de USA Today, The Indianapolis Star y The Arizona Republic, impulsó hace algunos años la creación de pequeños núcleos multidisciplinares de periodistas, estadísticos, cartógrafos e infografistas en sus redacciones. The Washington Post también cuenta con una estructura similar, lo que le permite publicar proyectos tan complejos y profundos como Top Secret America que, sin bien fallido desde el punto de vista de navegación, ayuda a visualizar el caos y el despilfarro en los servicios secretos estadounidenses.
The Guardian, en el Reino Unido, es un ejemplo algo diferente. En un ejercicio loable de transparencia, el diario no sólo publica infografías y visualizaciones con regularidad sino que, a través de su Data Blog, pone a disposición de los lectores las bases de datos (íntegras) y las fuentes usadas para sus proyectos. ¿El lema del blog? "Los hechos son sagrados".
Independientemente de cómo llamemos a este fenómeno —periodismo de datos, periodismo de precisión, periodismo asistido por ordenador, periodismo estadístico—, lo que los ejemplos anteriores ilustran es que tal vez no sea posible competir en el mercado informativo actual si no se cuenta con especialistas en reunir, organizar e interpretar números; o, en otras palabras, en darles sentido y presentarlos visualmente de manera que puedan ser aprehendidos y estudiados. ¿Cómo dar los primeros pasos en esta dirección, en caso de que no se haya hecho aún? La respuesta parte de una obra maestra de hace un siglo y medio. Lo veremos en un próximo post.
(Alberto Cairo es director de infografía y multimedia de la revista Época (Editora Globo, Brasil))
Hay 4 Comentarios
Es importante la posibilidad de tener acceso a las fuentes de las noticias que los medios publican. Siempre debemos tener en cuenta que una noticia es un recorte de la realidad (conciente o no) desde un punto de vista determinado.
Es irreal la idea que las empresas mediaticas intentan sostener de la objetividad periodistica. O las mas actualizadas se escudan en la teoría de las dos campanas, dar toda la información y que el lector saque sus concluciones.
Ninguna de estas es cierta ya que en la primera ninguna persona puede estar libre de su subjetividad, vemos las cosas desde un punto de vista determinado. Y en el caso de la segunda, no se estaría haciendo periodismo, la misión del periodista es interpretar la realidad, interpretar los datos.
Sería iluso de mi parte pedir sinceridad a los medios, pues las noticias son productos que estas empresas venden y la idea de subjetividad da una mayor "credibilidad" ante los lectores ingenuos. Lo necesario es que la ingenuidad de quienes se informan por un medio determinado desaparesca, que dejen de ver a los medios como portadores de la "verdad", y comiencen a sacar sus propias conclusiones.
La era digital nos da una gran ayuda en esto donde ya no es necesario gastar mucho dinero en comprar distintos diarios, en una mañana desde su ordenador una persona puede leer una noticia desde distintos enfoques e informarse del tema mucho mas ampliamente de lo que un diario puede querer mostrarle (ya sea por ocultamiento o por ignorancia).
Justamente la posibilidad de tener acceso a las fuentes que ofrece "The Guardian" brinda una mayor transparencia y da la posibilidad de que cada lector haga una interpretación personal de esos datos o fuentes.
Publicado por: GabrielSosa | 03/05/2011 2:53:43
Os felicito, por el blog y también por el tema, ya que tan imoportante como la extracción y cruce de datos es la visualización de estos. Lamentablemente lo que se enseña en las escuelas es en gran parte a imprimir la oralidad y nada más. Meyer en 1973 ya había escrito sobre el tema y en muchas escuelas ni se le conoce.
Publicado por: daniel | 14/04/2011 0:31:03
Me gusta el periodismo de precisión porque busca y encuentra la noticia donde ningún otro la ve...
Publicado por: Carlos Subero | 11/04/2011 3:59:49
Desde Pro Bono Publico, una asociación sin ánimo de lucro que promueve la liberación de datos públicos, organizamos en Febrero un barcamp sobre periodismo orientado a datos en el MediaLab, con invitados de The Guardian y theStory.ie. Los videos están disponibles en la web del MediaLab Prado:
http://medialab-prado.es/article/barcamp_periodismo_de_datos
Publicado por: Dcabo | 04/04/2011 20:17:50