Cazadores de ‘fake news’: así funciona la tecnología que evitará que te manipulen – El Mundo

  • Estados, universidades y empresas invierten grandes recursos en el desarrollo de algoritmos detectores de noticias manipuladas.
  • Esta tecnología todavía embrionaria necesita de detectives humanos para encontrar la información falsa que circula por la Red.
  • Las ‘fake news’ ya matan: bulos enviados por WhatsApp han provocado en la India un estado de psicosis con decenas de ejecuciones de gente inocente.

El cazador de fake news pasa su jornada laboral delante de un ordenador, rastreando internet con ayuda de un algoritmo. De repente, salta una alerta. El programa ha detectado la existencia de una noticia manipulada y perjudicial para una de las empresas que defiende. En este caso, un fabricante de automóviles.

El titular de la noticia denuncia -falsamente- que el último modelo de la marca tiene un defecto de fabricación que ha provocado víctimas mortales en la carretera. El cazador activa el protocolo. Rastrea quién está detrás de esa información. ¿Es un trol habitual? ¿Un cliente insatisfecho? El tiempo corre. La noticia ya se ha compartido en Facebook.

«En estos casos se convoca un comité de riesgo formado por los responsables de redes, ciberseguridad y marketing de la empresa para clasificar la alerta valorando daño e influencia», explica Guillermo López, cofundador y CEO de Torusware, una compañía gallega especializada en detección de fake news. Entonces, la marca automovilística intenta amortiguar los efectos de esa noticia falsa. Una nota de prensa o un tuit a tiempo pueden evitar un deterioro en la imagen corporativa y, por tanto, en las ventas.

El trabajo del cazador ha terminado. Hasta que salte otra alerta, claro. Y será pronto. Según las estimaciones de la consultora Gartner, en 2022 el público occidental consumirá más noticias falsas que verdaderas.

Cualquier fake news circula por internet a una velocidad superior a la de cualquier bulo propagado en la Historia. Los expertos han concluido que tienen un 70% más de probabilidades de ser replicadas que las noticias veraces y las noticias verdaderas tienen que ser hasta seis veces más largas que las falsas para poder alcanzar a 1.500 personas.

La cepa de este virus nace de la tecnología y también su vacuna. El problema es que, de momento, la vacuna está en fase experimental y tiene efectos secundarios .

El diccionario Oxford de lengua inglesa eligió ‘fake news’ como la palabra del año pasado. Su explosión mediática durante la contienda electoral entre Donald Trump y Hillary Clinton disparó su repercusión. Merecida, sin duda. Éstas pueden condicionar unas elecciones, destrozar la reputación de una marca o, incluso, provocar la muerte.

Según el diario inglés The Guardian, 20 personas han perdido la vida en la India en el último año por culpa de bulos difundidos a través de WhatsApp. Los mensajes advertían de la presencia de secuestradores y violadores de menores en zonas concretas. Se generó tal estado de psicosis colectiva que varios ‘sospechosos’ fueron linchados por vecinos sin pruebas ni juicio. Eran inocentes.

La ruta de la mentira es tan simple como efectiva. Imaginemos que una web publica una noticia falsa sobre una pelea entre inmigrantes en un barrio humilde de Madrid. El tema está ilustrado con un vídeo que luce como prueba irrefutable del suceso. Otro portal roba esa información, la redacta de nuevo y la publica en su web como propia sin contrastarla ni enlazar la fuente original. El veneno ya está inoculado. Los lectores no ponen en duda la existencia de esa pelea y la comparten en sus redes sociales. Desconocen que la prueba, el vídeo, fue grabada hace cuatro años en otro continente.

Este miedo a la interpretación de la irrealidad hace que empresas, universidades y estados trabajen a marchas forzadas en algoritmos detectores de fake news. Buscan armas para guiarnos en la jungla de la sobreinformación, capaces de separar el grano de la paja. «Pero esta tecnología aún está en pañales», reconoce el CEO de Torusware.

Él conoce muy bien este campo. Su empresa es una spin off de la Universidad de La Coruña que ha desarrollado un programa para detectar fake news en tiempo real. Su software genera un índice de probabilidad en base a la agregación de fuentes: noticias en distintos medios, comentarios de los lectores en redes sociales, metadatos y archivos de imagen y vídeo. «En el proceso localizamos comentarios por parte de internautas expertos que rebaten la información publicada y se infrapondera la actividad de activistas o usuarios usualmente sesgados (trolls)», dice López sobre su plataforma.

La carrera por el algoritmo mágico no descansa.

 

Hace un par de semanas, la Universidad de Michigan (EEUU) anunció la creación de uno capaz de detectar bulos con más fiabilidad que los humanos. El proyecto, en colaboración con la Universidad de Amsterdam, está basado en un sistema de procesamiento natural (NPL, en inglés) con el que busca expresiones y estructuras lingüísticas para juzgar la credibilidad del texto. «Usamos secuencias y categorías de palabras, signos de puntuación… Estas representaciones se incorporan al aprendizaje del algoritmo y éste decide cómo valorarlas para dilucidar si la noticia es falsa o verdadera», explica por email Rada Mihalcea, directora del proyecto en el Instituto de Ciencia de Datos de la Universidad.

Al contrario que muchos detectores similares, éste no juzga la veracidad del texto cruzándolo con noticias publicadas en otros medios. Mihalcea considera que su filtropuede ser útil tanto para medios de comunicación como para compañías de información bursátil.

Estos algoritmos se elevan en internet como guías en el caos de la información. Para la mayoría, son algo así como la receta de la Coca-Cola: cotidiana, difusa y a la vez secreta. Todos hemos oído hablar del algoritmo de Google o el de Facebook y asistimos impresionados a cómo en menos de un segundo responden nuestras dudas y nos acercan a quien deseamos. Pero, ¿qué son realmente?

El algoritmo es una secuencia de pasos que permiten resolver un problema o tomar una decisión. Por ejemplo, el de Google, ante una consulta, decide qué información aparecerá en primer lugar. Estos conjuntos de operaciones matemáticas con muchas variables también estipulan cómo Facebook decide cuáles son las noticias que te interesan.

Sin embargo, en estas cartas náuticas de estas empresas las fake news también nacen y se reproducen. Algo que preocupa a los gigantes de Silicon Valley. Más allá de los millones gastados en mejorar sus filtros y de las responsabilidades que se les empiezan a exigir, saben que la existencia de este tipo de manipulación daña su credibilidad ante el usuario, lo que a largo plazo podría condicionar su supervivencia.

«A medida que pase el tiempo, crecerán alianzas entre empresas tecnológicas, universidades y plataformas de redes sociales, ya que todos estamos tratando de resolver el mismo problema de diferentes maneras y enfoques», apunta desde Tel Aviv, Dan Brahmy, consejero delegado de Cyabra, una start up que ofrece sus servicios a políticos y marcas como Coca-Cola y Mercedes para contrarrestar ataques contra su reputación. Varios de los integrantes de esta firma tecnológica tiene experiencia en el Mossad, el servicio de inteligencia de Israel.

Compañías como Cyabra demuestran que estados y empresas consideran las fake news una parte de la reordenación estratégica digital. El problema es que en 2018 defenderse en el ciberespacio resulta mucho más caro que atacar. Por esa razón, hay una lucha contrarreloj por abaratar costes y desarrollar una inteligencia artificial que realmente sea inteligente.

Pero, por el momento, los algoritmos se muestran torpes. Sus reflejos son todavía lentos ante la ironía y el doble sentido de una frase. Además, los más avanzados operan solamente en lengua inglesa y sólo son efectivos si trabajan con acontecimientos en los que se genera gran cantidad de información.

La fragilidad de la vacuna tecnológica se ha puesto recientemente al descubierto. Una investigación conjunta de las universidades de Aalto (Finlandia) y Padua (Italia) ha testado siete modelos de detectores de última generación para localizar mensajes de odio. Así, evaluó su rendimiento con trampas que podrían haber sido descubiertas por un niño: los textos contenían algunas erratas y espacios al azar entre palabras. Sin embargo, los algoritmos fracasaron y fueron incapaces de sortearlas.

Esto confirma que el filtrado bruto de información va a ser computacional mientras que el quirúrgico permanecerá en los próximos años en manos humanas.

La prueba de que el factor humano es determinante está en los rastros que sigue un cazador de fake news. Las pistas están desperdigadas: en un titular escandaloso que no corresponde con el artículo o en una fotografía que ha sido robada tras una simple búsqueda de Google. Luego está lo que podría denominarse la ciberautopsia: una búsqueda de datos de los servidores, fechas de creación, registro de dominios o si hay enlaces que redireccionen a la web sospechosa.

Ningún experto duda que los algoritmos son imprescindibles. Pero también los hay los que advierten del peligro de deslumbrarnos por su potencial. Y advierten: la tecnología no puede eliminar la responsabilidad humana.

«La clave para combatir las fake news está en una correcta alfabetización mediáticaen la sociedad», dice @pedaguitu, un experto de las Fuerzas y Cuerpos de Seguridad del Estado que pide no identificarse y que plantea la siguiente cuestión: «¿Queremos que un algoritmo filtre lo que nos llega al móvil? Si dejamos todo en sus manos al final podemos volver al punto de partida. No podremos determinar si lo que leemos forma parte de una campaña de desinformación del creador o gestor del algoritmo. Es mucho más deseable dejar al usuario determinar por sí mismo si lo que lee es falso, impreciso o no. De lo contrario nos movemos en el ámbito de la censura y la manipulación, que es precisamente lo que pretendemos combatir».

En la sociedad posverdad que describe el filósofo Julian Baggini en su ensayo Breve historia de la verdad (Ed. Ático de los Libros) vivimos en burbujas en las que la mentira se disfraza de verdad. Su defensa a menudo toma la forma de batallas para defender verdades particulares que nos dividen.

Esa defensa hoy por hoy sólo se puede dejar en manos de la alianza entre el hombre y la máquina.

LEER NOTICIA COMPLETA EN EL MUNDO

Anuncios

Nos encantaría que opinaras

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.