Michael Dales

Los vecinos de Santa Barbara, en California, se quedaron sorprendidos después de leer un artículo de Los Angeles Times en el que afirmaban que un terremoto de escala 6.8 había azotado la ciudad. Sin embargo, nadie había notado nada.

El periódico eliminó rápidamente la información sobre el falso terremoto y explicó que el suceso reportado ocurrió realmente en 1925. ¿Cómo pudo darse semejante equivocación? El responsable parece ser un reportero del medio, aunque, lejos de ser una persona de carne y hueso y con una libreta en la mano, se trata de Quakebot, un algoritmo que utiliza Los Angeles Times. El bot recolecta los datos del US Geological Survey (USGS) para tener la última información acerca de los cambios geológicos en en el estado de California.

Durante el día de ayer, uno de los empleados actualizó los datos históricos del terremoto de 1925 y envió la alerta por error. Quakebot detectó rápidamente lo que consideró una novedad y publicó de manera automática un artículo en el periódico estadounidense y en su cuenta de Twitter.

Este tipo de algoritmos se han convertido en una herramienta periodística clave, ya que las noticias sobre, por ejemplo, terremotos pueden estar publicadas pocos minutos después de que el servicio geológico haya notado el movimiento. Los sistemas de alerta temprana también pueden ser de gran utilidad en otros incidentes como escapes de gas y las personas que se encuentren en la zona afectada pueden reaccionar con más rapidez y tranquilidad.

Los Angeles Times utiliza a Quakebot desde 2014, además de otro algoritmo con el mismo funcionamiento para reportar homicidios. Por su parte, la agencia Associated Press (AP) utiliza la tecnología de Automated Insights para escribir sus informes de ganancias. Desde ese momento, la agencia generó 3.000 historias por trimestre, diez veces su producción anterior. Por otro lado, los artículos publicados automáticamente tienen menos errores que las historias escritas por periodistas, afirmó Automated Insights en un comunicado de prensa.

Los errores gramaticales en un bot periodístico seguramente sean mucho menores que los de un ser humano, aunque también hay que tener en cuenta los errores informáticos que pueden ocurrir, como la falsa noticia del terremoto en Santa Barbara. Al fin y al cabo, la información automatizada está creada por robots, y no hay una persona física detrás capaz de juzgar o interpretar la información. En las noticias creadas por los bots, lo importante solo es el qué, el cómo y el cuando. En este sentido, un editorial de The New York Times apuntó a que el periodismo robotizado "liberará a los seres humanos de hacer más informes y menos procesamiento de datos".

Los algoritmos para generar contenido periodístico es algo cada vez más común en los medios de comunicación y, según News Science, el 90% de las noticias podrían estar escritas de manera automática y sin intervención humana para 2020. Si esta cifra se hiciera realidad, el trabajo periodístico podría estar seriamente en peligro pero, siempre y cuando estos bots no aprendan a interpretar y a juzgar, los algoritmos podrían considerarse como un complemento para generar información diaria casi en tiempo real y abrir la puerta al análisis para los periodistas en carne y hueso.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: