Facebook está trabajando para combatir la «pornovenganza»

facebook

Facebook está trabajando en una inteligencia artificial que será capaz de detectar imágenes y vídeos de pornovenganza para poder eliminarlos de sus plataformas (tanto la red social como Instagram; no hay menciones a WhatsApp en el anuncio) sin necesidad de que el contenido sea denunciado.

Antigone Davis, jefe de Seguridad Global de la compañía, ha anunciado esta nueva tecnología en su blog, aunque no ha dado mucha información sobre su funcionamiento. Según han explicado mediante 'machine learning' e inteligencia artificial podrán "detectar de forma proactiva imágenes cercanas al desnudo o vídeos que se comparten sin permiso".

Te recomendamos: Revelan la causa de la caída de facebook whatsApp e Instagram

Esta forma de violencia sexual es complicada de denunciar, pues en muchos casos quienes la sufren no lo hacen por miedo a las represalias o, sencillamente, no son conscientes de su existencia, motivo por el que la compañía subraya la importancia de encontrar el contenido sin necesidad de la participación de terceros, reporta el diario El Mundo. 

En cualquier caso, una vez que esta herramienta marque una imagen o vídeo como nocivo, después será revisado por "un miembro especialmente entrenado".

Si considera que va en contra de sus reglas, lo eliminará y "en la mayoría de los casos" se desactivará la cuenta infractora (la empresa no ha explicado si alertará a las autoridades). Quien crea que Facebook ha cometido un error tendrá la posibilidad de apelar la decisión.