Cómo usa Facebook la inteligencia artificial para combatir terrorismo
La red social reveló por primera vez las técnicas utilizadas para evitar este tipo de publicaciones. Más de 150 personas se dedican exclusiva o principalmente a la lucha contra el terrorismo.
Robaron y lo publicaron en Facebook
El uso de inteligencia artificial (IA) "es reciente", reconocieron lo voceros de la compañía, quienes explicaron que utilizan "las técnicas más avanzadas en combatir el contenido terrorista sobre ISIS, Al Qaeda y sus afiliados, y esperamos expandirlas a otras organizaciones terroristas", si bien "la mayoría de las cuestas" ligadas a estos grupos "son detectadas por nuestro equipo".
De esta manera, la red social reconoció que "más de 150 personas se dedican exclusiva o principalmente a la lucha contra el terrorismo como su principal responsabilidad. Esto incluye a expertos académicos en antiterrorismo, ex fiscales, ex agentes de la ley, analistas e ingenieros. Dentro de este equipo especializado, hablamos casi 30 idiomas".
Asimismo, anticipó que incorporará, el año próximo, 3.000 personas en todo el mundo al equipo de Operaciones Comunitarias para "trabajar las 24 horas del día y en decenas de idiomas para revisar informes y determinar su contexto. Eso nos ayuda a reportar cuentas o contenido que puede violar nuestras políticas, incluyendo la pequeña fracción que puede estar relacionada con el terrorismo".
Además, la red social que usan 2.000 millones de personas por mes en 80 idiomas, explicó que sus políticas antiterroristas se aplican en sus plataformas, incluyendo a WhatsApp e Instagram y "nos unimos hace seis meses a Microsoft, Twitter y YouTube para anunciar una base de datos compartida de "hashes" -huellas digitales únicas de fotos y videos- para contenido producido por o en apoyo a organizaciones terroristas. Esta colaboración ha resultado fructífera y esperamos sumar más socios en el futuro".
La comparación de imágenes es otra de las estrategias de la empresa: "Cuando alguien intenta subir una foto o un video con contenido terrorista, nuestros sistemas analizan si la imagen coincide con una foto o video de terrorismo preexistente. Esto significa que si previamente eliminamos un video de propaganda de ISIS, podemos trabajar para evitar que otras cuentas suban el mismo video en nuestro sitio".
Lo mismo hacen con el lenguaje usando IA "para entender aquellos textos que podrían ser propaganda terrorista. Actualmente estamos experimentando con el análisis de texto favorable a organizaciones como ISIS y Al Qaeda que ya hemos eliminado, con el fin de desarrollar señales basadas en texto para identificar propaganda terrorista".
Bickert y Fishman explicaron que el análisis "entra en un algoritmo que se encuentra en las primeras etapas del aprendizaje sobre cómo detectar publicaciones similares. Los algoritmos de aprendizaje automático o "machine learning" trabajan en un bucle de retroalimentación y mejoran con el tiempo".
Otro eje es la eliminación de clusters terroristas, ya que los grupos violentos "tienden a radicalizarse y operar en grupos. Y esa tendencia en el mundo real se refleja en el mundo online. De modo que cuando identificamos páginas, grupos, publicaciones o perfiles de apoyo al terrorismo, también usamos algoritmos para intentar identificar material relacionado".
Lo logran "utilizando señales como, por ejemplo, si una cuenta es amiga de un número elevado de cuentas que han sido inhabilitadas por terrorismo, o si una cuenta comparte los mismos atributos que una cuenta inhabilitada" y además los voceros valoraron que detectan "más rápido nuevas cuentas falsas" relacionados con estos grupos.
Asimismo, la empresa dijo que "valora la expertise humana" ya que la IA "no puede detectarlo todo". A modo de ejemplo, señaló que una foto de un hombre armado agitando una bandera de ISIS "puede tratarse de propaganda o material de reclutamiento, pero también puede ser la imagen que ilustra a un artículo periodístico. Algunas de las críticas más efectivas a agrupaciones brutales como ISIS utilizan la misma propaganda de la organización en su contra. Y para comprender estos matices necesitamos de la experiencia humana".
Facebook informó también que está trabajando en conjunto con el Foro de Internet de la Unión Europea, la Coalición Global Contra Daesh y el Ministerio del Interior del Reino Unido.
Temas
Te puede interesar
Facebook Live y la transmisión de la muerte en vivo y en directo
El pasado 16 de abril Steve Stephens, de 37 años, publicó un video en el que contaba que había matado a 13 personas –que más tarde se confirmó que era mentira– mientras manejaba su auto. Además, contaba que tenía en mente matar a otra más. Minutos después asesinó a Robert Godwin, de 74 años, quien caminaba por una calle de Cleveland, Estados Unidos, como lo había hecho cientos de veces.
Las Más Leídas
Dejá tu comentario