milenio digital
17 de junio de 2017 / 06:54 a.m.

SAN FRANCISCO.- Facebook comenzó a desplegar sus capacidades de inteligencia artificial para ayudar a evitar que terroristas usen sus servicios, señalaron funcionarios de la compañía.

Mencionaron en un blog que se utilizará inteligencia artificial, así como revisores humanos para encontrar y remover inmediatamente “contenido terrorista”, antes de que otros usuarios lo vean. Tal tecnología ya se utiliza para bloquear pornografía infantil en Facebook y en otros servicios como YouTube, pero se habían mostrado renuentes a aplicarla en otros usos más difíciles de definir.

Facebook y otras compañías de internet enfrentan una creciente presión gubernamental para identificar y prevenir la distribución de propaganda terrorista y de mensajes de reclutamiento en sus servicios. A inicios de junio, la primera ministra británica, Theresa May, hizo un llamado a los gobiernos a formar acuerdos internacionales para evitar la propagación del extremismo por internet. Algunas medidas propuestas responsabilizarían jurídicamente a las empresas por el material publicado en sus sitios.

La publicación en el blog de Facebook, realizada por Monika Bickert, directora de administración de política global, y por Brian Fishman, gerente de política contraterrorista, no mencionó específicamente el llamado de May, pero admitió que “como consecuencia de los recientes ataques terroristas, la gente ha cuestionado el papel de las compañías de tecnología en el combate al terrorismo en internet”.

Entre las técnicas de inteligencia artificial empleadas en este esfuerzo se encuentra el cotejo de imágenes, el cual compara fotos y videos que las personas publican en la red social con material “conocido” vinculados a terrorismo. Una correspondencia generalmente significa que Facebook ya había removido el material o que éste terminó en una base de imágenes que la compañía comparte con Microsoft, Twitter y YouTube.

En la empresa también se desarrolla un sistema de “señales basadas en mensajes” que ya habían sido retirados por alabar o apoyar a organizaciones terroristas. Esas señales alimentarán a una máquina que posteriormente aprenderá a detectar publicaciones similares.

Bickert y Fishman dijeron que cuando Facebook recibe reportes de publicaciones “potencialmente terroristas”, los revisa al instante. Además, dijeron que en los raros casos en los que el sistema descubre evidencia de daño terrorista inminente, se informa rápidamente a las autoridades.

La tecnología todavía no llega al punto en que sea capaz de entender los matices del lenguaje y el contexto, por lo que los seres humanos siguen involucrados en el proceso y por el momento se emplea a más de 150 personas que trabajan “exclusivamente o principalmente enfocadas en contrarrestar el terrorismo”. Entre esas personas hay expertos académicos en la lucha antiterrorista, ex fiscales y antiguos miembros de fuerzas policiales, ingenieros y analistas, de acuerdo al blog de la empresa.


dezr