Facebook prohíbe los videos ultrafalsos pero acepta las parodias

inteligencia artificial

Facebook prohibirá los videos ultrafalsos o "deepfake" de cara a las elecciones de este año en Estados Unidos, pero su nueva política aún permitirá la publicación de videos muy editados siempre que se trate de parodias o sátiras, dijo el martes el gigante de las redes sociales.

Los ultrafalsos son videos hiperrealistas hechos con inteligencia artificial o programas diseñados especialmente para fingir de manera muy verosímil movimientos humanos reales.

En una publicación de blog que siguió a un reporte del diario Washington Post sobre el tema, Facebook dijo que comenzará a eliminar los clips que fueron editados en formas que "no son evidentes para una persona promedio" y que pueden llevar a la confusión.

inteligencia artificial, tecnologia, facebook, fingir, videos, parodias, personas, instagram, informacion

 

Lee también: Telegram: Con nuevas actualizaciones para los usuarios

El material será removido si es "producto de inteligencia artificial o de aprendizaje automático que superpone o reemplaza contenido en un video, haciéndolo parecer auténtico", dice el texto de la vicepresidenta de Facebook, Monika Bickert.

Nueva política

Sin embargo, añade: "Esta política no se extiende a contenido que sea parodia o sátira, o videos que simplemente hayan sido editados para omitir o modificar el orden de las palabras".

Medios estadounidenses destacaron que la nueva política no incluirá videos como el que se hizo viral en 2019 que no era "deepfake" de la líder de la Cámara de Representantes, Nancy Pelosi, que hacía parecer como que tuviera problemas de pronunciación.

inteligencia artificial, tecnologia, facebook, fingir, videos, parodias, personas, instagram, informacion

Facebook no indicó la cantidad de personas dedicadas a identificar y bajar los videos infractores, pero aseguró que aquellos que no cumplan con sus políticas usuales serán removidos y los que sean denunciados seguirán siendo revisados por equipos de verificadores externos, entre ellos los de AFP.

La AFP trabaja en más de 30 países y en diez idiomas en el programa "Third party fact-checking" de verificación de contenidos desarrollado por Facebook. Dentro de este programa, que fue lanzado en diciembre de 2016, Facebook remunera a unos 60 medios de todo el mundo, de información general o especializados, para usar sus fact-checks en su plataforma y en Instagram.

Si uno de estos medios detecta que una información es falsa o engañosa, los usuarios de Facebook e Instagram tienen menos posibilidades de verla aparecer entre sus noticias de actualidad. Y si alguien intenta compartir esta información, la plataforma le propone la lectura del artículo con la correspondiente verificación. Facebook no elimina ninguna publicación. Los medios que participan tienen total libertad en la elección y tratamiento de los temas que desean verificar.