Así se usa la Inteligencia artificial en Facebook contra el terrorismo

Las redes sociales y más concretamente Facebook ya no son meros foros de ocio y socialización. En los últimos tiempos, la red creada por Mark Zuckerberg ha tenido que empezar a plantar caras a problemas tan serios como las noticias fasas, el amarillismo, los suicidios y crímenes en directo y, ahora también, el terrorismo. 

Facebook ha publicado un comunicado en el que explica cómo están trabajando para evitar que los contenidos terroristas lleguen a Facebook. "Estamos de acuerdo con aquellos que dicen los medios sociales no deben ser un lugar en el que los terroristas tengan voz", cuenta el equipo de la compañía antes de explicar cómo afrontan este problema, en buena medida gracias a las posibilidades de la inteligencia artificial.

 "Nuestra posición es sencilla: No hay lugar para el terrorismo en Facebook. Eliminamos a los terroristas y las publicaciones que los apoyan en cuanto los detectamos. Cuando recibimos denuncias de posibles publicaciones terroristas las revisamos de manera urgente y al detalle. Y en los pocos casos en los que descubrimos alguna prueba de un daño inminente avisamos a las autoridades de inmediato", relatan. 

Facebook cree que la tecnología, concretamente la inteligencia artificial, puede ser de gran ayuda para combatir el terrorismo. "Aunque nuestro empleo de la IA contra el terrorismo es bastante reciente ya está cambiando la forma en la que mantenemos la potencial propaganda terrorista y sus cuentas fuera de Facebook. Actualmente estamos orientando nuestras técnicas más innovadoras a combatir el contenido terrorista sobre ISIS, Al Qaeda y sus aliados, y esperamos expandirlo a otras organizaciones terroristas", explican. 

La compañía cuenta que actualiza constantemente soluciones técnicas. Estos son algunos de sus esfuerzos en la actualidad:

 Emparejamiento de imágenes: Cuando alguien intenta subir una imagen o vídeo de contenido terrorista, el sistema busca si esa imagen coincide con alguna de las fotografías o vídeos registrados como terroristas. Esto significa que, si anteriormente se ha eliminado un vídeo propagandístico de ISIS, se evita que otras cuentas compartan el mismo vídeo. De este modo, un contenido que tiene la intención de fomentar el terrorismo en Facebook nunca llega a la plataforma.

 Comprensión del lenguaje: Facebook experimenta con IA para entender un texto que puede estar orientado a promover el terrorismo. Se experimenta con análisis de textos retirados previamente por apoyar a ISIS y Al Qaeda de manera que se puedan desarrollar señales que alerten de que se trata de propaganda terrorista. Este análisis dará como resultado un algoritmo que detectará publicaciones similares. Los algoritmos de aprendizaje automáticos trabajan sobre un feedback constante y van mejorando con el tiempo. 

Eliminar redes terroristas: Cuando se identifican páginas, grupos, publicaciones o perfiles que apoyan el terrorismo también se emplean algoritmos para identificar material relacionado que pueda también apoyar el terror. Se recurre a señales como ver si una cuenta es amiga con un gran número de cuentas que han sido deshabilitadas por terrorismo o si una cuenta comparte los mismos atributos que otra cuenta eliminada. 

Reincidencia: Ahora, Facebook es más rápido a la hora de detectar cuentas falsas creadas por ofensores reincidentes. Con este trabajo se reduce dramáticamente el periodo de tiempo que este tipo de cuentas están en Facebook. Es un trabajo sin fin porque los terroristas evolucionan continuamente en sus métodos. Se identifican constantemente nuevas formas que emplean los actores terroristas para evitar los sistemas y Facebook se actualiza en consecuencia.

 Colaboración entre plataformas: Han empezado a trabajar en sistemas que nos permitan actuar contra cuentas de terroristas en todas sus plataformas, incluyendo WhatsApp e Instagram. La inteligencia artificial no puede llegar a todo, así que el conocimiento humano sigue siendo vital, además del uso de otro tipo de tecnologías. Por ese motivo recurren a otras medidas como la contratación de especialistas, la atención a denuncias y críticas, la cooperación con otras tecnológicas y con los gobiernos de los diferentes países, la encriptación, la contranarrativa.