– Ago 6, 2019, 13:41 (CET)

Trump quiere que las redes sociales detecten atentados antes de que se cometan, pero es algo que ya se hace

Los ordenamientos jurídicos ya tienen herramientas para perseguir los actos preparativos de este tipo (aunque sigue siendo complejo), por lo que el problema no son solo las redes sociales.

El manejo de los discursos de odio en la redes sociales sigue siendo un problema a día de hoy. Las herramientas que han venido implementando los servicios de internet no han terminado atajar el problema, aunque poco a poco se van haciendo avances. Lejos de los alcances de las redes sociales mainstream quedan resquicios alejados de los ojos de la legalidad y de las sanciones. Hay un consenso general que, dadas las dimensiones de la red y los diferentes ordenamientos jurídicos que imperan sobre ella, es imposible terminar del todo con los discursos de odio.

Aunque el primer fin de semana de agosto ha sido especialmente cruento, con dos atentados terroristas en forma de tiroteo masivo en El Paso, Texas y Dayton, Ohio, que se han saldado con 22 muertos y 24 heridos el caso del primero y nueve muertos y 27 heridos en el segundo, y perpetrados por supuestos supremacistas que habrían manifestado sus intenciones en sitios webs como 8chan. Lo cierto es que no son los únicos, pues en lo que llevamos de año se han producido 255 tiroteos en masa en Estados Unidos. La mayoría tienen algo en común: perpetradores que frecuentas sitios relacionados con ideas supremacistas que amplifican la cámara de eco y que publica manifiestos sobre sus intenciones e ideas de odio en foros y redes sociales.

Las propuestas, siempre posteriores a sucesos como los tiroteos de este fin de semana, suelen plantear en caliente herramientas de control sobre este tipo de atentados que utilizan las redes para amplificar su discurso. Si bien los ordenamientos jurídicos tienen mecanismos para perseguir cualquier hecho delictivo que suceda en las redes, es tremendamente complicado anticiparse a ello, máxime cuando muchos de estos reductos de odio están fuera de las jurisdicciones que tienen sistemas efectivos para perseguirlas.

La última propuesta de Trump, tras los atentados en Ohio y Texas, ha sido la de buscar una serie de fórmulas para que las redes puedan luchar de forma preventiva contra estos discursos de odio que acaban desembocando en un atentado terrorista. Dar herramientas a las fuerzas de seguridad para que puedan prever este tipo de atentados que tienen una cierta base en la redes sociales y sitios como 8chan y actuar en consecuencia. El problema es que es imposible prever este tipo de movimientos, y si se pueden prever, hacerlo con la anticipación suficiente como para frenar un posible atentado.

El presidente de los Estado Unidos ha hecho un llamamiento hacia el acuerdo para "desarrollar herramientas que puedan detectar tiradores en masa antes de que ataquen", de forma que las redes sociales y sitios webs para trabajen "en asociación" con el Departamento de Justicia y las agencias para anticiparse a los movimientos de odio que puedan desembocar en un atentado.

Como concepto, cualquier colaboración de la web con las fuerzas y cuerpos de seguridad siempre será bien recibida por la ciudadanía en tanto permiten que la red no escape a la jurisdicción que, en otros estamentos, están sometidos al imperio de la ley. El problema principal -de muchos- es que, por norma general, los sitios que albergan discursos de odio y que amparan a extremistas que acaban atentado suelen estar fuera del círculo mainstream de los sitios webs que colaboran con la justicia. O si no lo están, hacen caso omiso por encontrarse en jurisdicciones que quedan fuera del ámbito de actuación de la justicia americana o europea.

El otro problema tiene que ver con el concepto anticiparse. Si bien la prevención activa es una de las herramientas de los cuerpos y fuerzas de seguridad de los diferentes estados para evitar la comisión de este tipo de delitos o atentados, el ámbito de actuación de la anticipación es limitado. Los algoritmos, que podría ser una solución, no están preparados para determinar actividades en la red puede traducirse en un atentado fuera de ella.

Los sistemas de big data que usan herramientas como web crawling o cruzado de datos pueden ayudar a la policía a detectar patrones, y los sistemas de procesamiento de lenguaje natural hacen lo propio para distinguir discursos en la red, pero necesitan un punto de partida desde el que empezar a buscar. Y generalmente con lobos solitarios como los de los atentados del fin de semana no es tan sencillo.

Ya en 2016 Facebook, Microsoft, Twitter and YouTube pusieron en marcha un acuerdo para crear una base de datos compartida para ayudar a identificar contenido potencial terrorista en sus respectivas plataformas. La Unión Europea también tiene a DANTE, un sistema de minería de datos altamente eficiente y automatizado con varias soluciones analíticas y un sistema integrado para detectar, recuperar y analizar grandes cantidades de contenido multimedia heterogéneo, complejo y multilingüe (en cinco idiomas) relacionados con el terrorismo, tanto en la web abierta como en Deep Web.

El problema con los servicios automatizados es que no son tan avanzados como nos gustaría, no casan bien con las normas constitucionalmente remarcadas en materia de privacidad y derechos personales de la mayoría de los países y no pueden preveer movimientos de lobos solitarios en un reducto alejado de la red. Jeremy Gillula, Director de Proyectos de Tecnología de Electronic Frontier Foundation, en declaraciones a Recode arroja un poco más de luz sobre el usuario de algoritmos de prevención para tiroteos masivos:

"Creo que tratar de usar herramientas automatizadas para predecir [los tiroteos masivos] es una mala idea y no funcionaría tan bien como la gente que cree que la tecnología es mágica quisiera que pienses que lo haría. La tecnología no es una solución mágica para los problemas de la sociedad. Tienes que arreglar la sociedad en general".

La ley ya castiga los actos previos

La realidad es que ordenamientos jurídicos como el español ya sanciona este tipo de conductas, tienen en cuenta la anticipación a la que menciona Trump, y los actos preparativos que puedan llevar a desembocar en un atentado terrorista en base a un delito de odio, también para los lobos solitarios. La reforma del Código Penal español incluyó este supuesto en el capítulo de terrorismo en el artículo 575 CP.

Se entenderá que comete este delito quien, con tal finalidad, acceda de manera habitual a uno o varios servicios de comunicación accesibles al público en línea o contenidos accesibles a través de internet o de un servicio de comunicaciones electrónicas cuyos contenidos estén dirigidos o resulten idóneos para incitar a la incorporación a una organización o grupo terrorista, o a colaborar con cualquiera de ellos o en sus fines. Los hechos se entenderán cometidos en España cuando se acceda a los contenidos desde el territorio español.

Asimismo, se entenderá que comete este delito quien, con la misma finalidad, adquiera o tenga en su poder documentos que estén dirigidos o, por su contenido, resulten idóneos para incitar a la incorporación a una organización o grupo terrorista o a colaborar con cualquiera de ellos o en sus fines.

El problema, por tanto, no está en la tipificación de la anticipación o en la delimitación de este tipo de conductas, puesto que el España también es delito la participación activa de sitios relacionados con terrorismo o la difusión de consignas como las que se han venido vertiendo en foros como 8chan en cada uno de los atentados masivos, puesto que la ley también castiga a quién “difunda públicamente mensajes o consignas que tengan como finalidad o que, por su contenido, sean idóneos para incitar a otros a la comisión de alguno de los delitos de este Capítulo” y también a las “los demás actos de provocación, conspiración y proposición para cometer alguno de los delitos regulados en este Capítulo”.

La cuestión no está tanto en la anticipación como en la implantación de herramientas efectivas para ello. La magnitud de la red hace más complicado luchar de forma activa contra el odio fuera del circulo mainstream, y equilibrar la balanza entre la lucha frente a este tipo de conductas y la privacidad se antoja imprescindible.

A lo mejor, el primer paso, antes de revolucionar la red y limitar los derechos de los ciudadanos que hacen un uso legitimo de la misma, sea limitar el acceso a las armas. Es mucho más sencillo luchar contra el odio si la única herramienta que tiene el que odia es un foro recóndito en internet y no un arma de grado militar en el sótano.