Cómo usa Facebook la inteligencia artificial para combatir terrorismo

Tecno

La red social reveló por primera vez las técnicas utilizadas para evitar este tipo de publicaciones. Más de 150 personas se dedican exclusiva o principalmente a la lucha contra el terrorismo.

Facebook reveló este jueves sus estrategias para combatir el terrorismo, que incluyen el uso de inteligencia artificial, comprensión de lenguaje violento, el trabajo de un equipo de 150 personas especializadas y cruce de información con otras redes, organismos estatales y organizaciones sociales.

En un extenso comunicado publicado en su blog oficial y firmado por Monika Bickert, directora global de Gestión de Políticas de Contenido y Brian Fishman, gerente de Políticas contra el Terrorismo, la red social detalló cuales son las medidas que adopta, respondiendo a cuestionamientos recientes de distintos gobiernos sobre el papel de las empresas de tecnología contra el terrorismo online.

"Estamos de acuerdo con quienes dicen que las redes sociales no deben ser un lugar donde los terroristas tengan voz. Queremos responder las preguntas que cuestionan nuestro rol en este sentido", dijeron los directivos.

El uso de inteligencia artificial (IA) "es reciente", reconocieron lo voceros de la compañía, quienes explicaron que utilizan "las técnicas más avanzadas en combatir el contenido terrorista sobre ISIS, Al Qaeda y sus afiliados, y esperamos expandirlas a otras organizaciones terroristas", si bien "la mayoría de las cuestas" ligadas a estos grupos "son detectadas por nuestro equipo".

De esta manera, la red social reconoció que "más de 150 personas se dedican exclusiva o principalmente a la lucha contra el terrorismo como su principal responsabilidad. Esto incluye a expertos académicos en antiterrorismo, ex fiscales, ex agentes de la ley, analistas e ingenieros. Dentro de este equipo especializado, hablamos casi 30 idiomas".

Asimismo, anticipó que incorporará, el año próximo, 3.000 personas en todo el mundo al equipo de Operaciones Comunitarias para "trabajar las 24 horas del día y en decenas de idiomas para revisar informes y determinar su contexto. Eso nos ayuda a reportar cuentas o contenido que puede violar nuestras políticas, incluyendo la pequeña fracción que puede estar relacionada con el terrorismo".

Además, la red social que usan 2.000 millones de personas por mes en 80 idiomas, explicó que sus políticas antiterroristas se aplican en sus plataformas, incluyendo a WhatsApp e Instagram y "nos unimos hace seis meses a Microsoft, Twitter y YouTube para anunciar una base de datos compartida de "hashes" -huellas digitales únicas de fotos y videos- para contenido producido por o en apoyo a organizaciones terroristas. Esta colaboración ha resultado fructífera y esperamos sumar más socios en el futuro".

Embed
La comparación de imágenes es otra de las estrategias de la empresa: "Cuando alguien intenta subir una foto o un video con contenido terrorista, nuestros sistemas analizan si la imagen coincide con una foto o video de terrorismo preexistente. Esto significa que si previamente eliminamos un video de propaganda de ISIS, podemos trabajar para evitar que otras cuentas suban el mismo video en nuestro sitio".

Lo mismo hacen con el lenguaje usando IA "para entender aquellos textos que podrían ser propaganda terrorista. Actualmente estamos experimentando con el análisis de texto favorable a organizaciones como ISIS y Al Qaeda que ya hemos eliminado, con el fin de desarrollar señales basadas en texto para identificar propaganda terrorista".

Bickert y Fishman explicaron que el análisis "entra en un algoritmo que se encuentra en las primeras etapas del aprendizaje sobre cómo detectar publicaciones similares. Los algoritmos de aprendizaje automático o "machine learning" trabajan en un bucle de retroalimentación y mejoran con el tiempo".

Otro eje es la eliminación de clusters terroristas, ya que los grupos violentos "tienden a radicalizarse y operar en grupos. Y esa tendencia en el mundo real se refleja en el mundo online. De modo que cuando identificamos páginas, grupos, publicaciones o perfiles de apoyo al terrorismo, también usamos algoritmos para intentar identificar material relacionado".

Facebook
Lo logran "utilizando señales como, por ejemplo, si una cuenta es amiga de un número elevado de cuentas que han sido inhabilitadas por terrorismo, o si una cuenta comparte los mismos atributos que una cuenta inhabilitada" y además los voceros valoraron que detectan "más rápido nuevas cuentas falsas" relacionados con estos grupos.

Asimismo, la empresa dijo que "valora la expertise humana" ya que la IA "no puede detectarlo todo". A modo de ejemplo, señaló que una foto de un hombre armado agitando una bandera de ISIS "puede tratarse de propaganda o material de reclutamiento, pero también puede ser la imagen que ilustra a un artículo periodístico. Algunas de las críticas más efectivas a agrupaciones brutales como ISIS utilizan la misma propaganda de la organización en su contra. Y para comprender estos matices necesitamos de la experiencia humana".

Facebook informó también que está trabajando en conjunto con el Foro de Internet de la Unión Europea, la Coalición Global Contra Daesh y el Ministerio del Interior del Reino Unido.

















Temas

Dejá tu comentario