Facebook3-800x600

La cantidad de información que fluye a través de Facebook es algo muy complicado de cuantificar, un flujo de datos en el que hay comentarios, aplicaciones, fotografías, encuestas y toda la actividad generada por 750 millones de usuarios. Lógicamente, los datos de los usuarios es uno de los activos principales de la compañía de Mark Zuckerberg y, como tal, debe ser custodiado adecuadamente. En un mundo en el que los sistemas de información están amenazados por aquellos que roban datos, Facebook ha implementado un sistema de seguridad que custodia toda esta información y evita que caiga en malas manos, el Facebook Immune System (FIS).

¿Y qué es el FIS? FIS es una rama de Facebook formada por un equipo de 30 personas que utilizan una serie de algoritmos (desarrollados durante 3 años en colaboración con Microsoft) que son capaces de monitorizar hasta 650.000 acciones por segundo de las más de 25.000 millones de acciones que se dan en Facebook cada día. ¿Y qué analiza esta especie de gran hermano digital? Estos algoritmos de inteligencia artificial están concebidos para buscar patrones sospechosos entre toda la información que fluye a través de esta red social y, por ejemplo, logrando reducir los mensajes de spam hasta el punto de que tan sólo representan un 4% de los mensajes circulantes y bajando los mensajes no deseados que reciben los usuarios hasta el 1%.

¿Y cómo puede un algoritmo distinguir entre un mensaje lícito y uno no lícito? Los patrones que se buscan, realmente, son palabras y, lógicamente, existe una lista de palabras susceptibles de aparecer en un mensaje de spam aunque puede ocurrir que estas palabras aparezcan en mensajes lícitos. Para distinguirlo, los algoritmos trabajan con asociaciones de palabras, es decir, además de encontrar un patrón sospechoso, el mensaje debe contener otras palabras clave para que éste sea marcado como spam.

De todas formas, este sistema de defensa no es perfecto y, seguramente, seguirá un proceso de mejora continua. Yazan Boshmaf y sus compañeros de la Universidad de British Columbia en Canadá fueron capaces de hacerse con los datos de 14.500 usuarios a partir de una red de 102 social bots, una aplicación que se comporta igual que una persona en Facebook. Durante las pruebas lanzaron a sus bots a realizar solicitudes de amistad al azar de las que, por increíble que parezca, el 20% contestaba afirmativamente sin conocer ni tan siquiera al usuario. Por cada nuevo amigo, el bot lanzaba peticiones de amistad a los amigos de su nuevo amigo, amplificando mucho más su alcance y permitiendo acceder a los perfiles de los usuarios para recopilar sus datos personales.

Teniendo en cuenta que la tasa de aceptación de las peticiones no era muy grande, una de cada cinco, el FSI podría haber detectado esta anormal tasa de rechazo para detectar una conducta sospechosa. En definitiva, el FSI no es perfecto, simplemente, hay que indicarle qué debe buscar, qué es un comportamiento aceptable y cuál es un comportamiento inaceptable para que vaya "aprendiéndolo", lo cual puede colocar al FSI un paso por detrás de los que quieren robar datos y un ajuste, por tanto, más reactivo que proactivo.

Aún así, el FSI parece que tiene bastante potencial y, sobre todo, una enorme capacidad de análisis y procesamiento.

Vía: ALT1040

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: