Noticias Destacadas|Opinion

Cómo Facebook se convirtió en el opio de las masas

Compartir

Por: František Vrabel

PRAGA – En la guerra de la desinformación puede ser difícil detectar al enemigo. Se ha acusado a periodistas, políticos, gobiernos y hasta abuelos por permitir la difusión de falsedades en línea.

Aunque ninguno de esos grupos es completamente inocente, el verdadero adversario es más común. Según el testimonio, a fines del año pasado, de la denunciante Frances Haugen, quien trabajaba en Facebook, son los propios algoritmos de las redes sociales los que facilitan el acceso a la desinformación.

Desde su lanzamiento en 2004, Facebook pasó de ser un sitio de redes sociales para estudiantes a un monstruo de vigilancia que destruye la cohesión social y la democracia en todo el mundo. Facebook recopila un tesoro de datos sobre los usuarios —incluidos datos íntimos, como su peso y si las mujeres están embarazadas— para crear un mapa del ADN social de sus usuarios. La empresa luego vende esa información a cualquiera —desde fabricantes de champú hasta los servicios de inteligencia rusos y chinos— que desee «microsegmentar» a sus 2900 millones de usuarios. De esta manera Facebook permite que terceros manipulen las ideas de la gente y operen con «futuros de humanos»: modelos predictivos de las decisiones que probablemente tomarán las personas.

Facebook fue usado en todo el mundo para sembrar desconfianza en las instituciones democráticas. Sus algoritmos facilitaron la violencia en el mundo real, desde el genocidio en Birmania hasta el reclutamiento de terroristas en Sudamérica, África Oriental y Medio Oriente. Las mentiras sobre el fraude electoral en Estados Unidos, fomentadas por el expresidente Donald Trump, inundaron Facebook en los días previos a los disturbios del 6 de enero. Mientras tanto, en Europa, Facebook posibilitó los perversos esfuerzos del hombre fuerte bielorruso Aleksandr Lukashenko para usar a los inmigrantes como armas contra la Unión Europea.

El ciberespacio de la República Checa se vio inundado por desinformación creada en Rusia y compartida en el sitio, gracias al código malintencionado de Facebook. Un análisis que realizó mi empresa detectó que el ciudadano checo promedio recibe 25 veces más desinformación sobre la vacuna contra la COVID-19 que el estadounidense promedio. La situación es tan extrema y la acción gubernamental tan inepta que los checos dependen de la sociedad civil —que incluye a voluntarios conocidos como los elfos checos— para monitorear y contrarrestar esta influencia.

Hasta el momento los esfuerzos para mitigar la amenaza de Facebook a la democracia fracasaron miserablemente. En la República Checa, Facebook firmó un acuerdo con Agence France-Presse (AFP) para identificar contenidos perjudiciales, pero solo se asignó la tarea a un empleado a tiempo parcial y se fijó una cuota mensual de apenas 10 publicaciones sospechosas, con lo que esos esfuerzos representan una gota en el océano de desinformación. Los archivos de Facebook (Facebook Files) publicados por The Wall Street Journal confirman que Facebook actúa sobre «apenas el 3 al 5 % de las publicaciones que incitan al odio».

Facebook brinda a los usuarios la posibilidad de excluirse voluntariamente de los avisos personalizados y políticos, pero se trata de un gesto simbólico. Algunas organizaciones, como Ranking Digital Rights, solicitaron a la plataforma que desactive por defecto la segmentación en los anuncios. Eso no alcanza. La microsegmentación que forma parte de las raíces del modelo de negocio de Facebook depende de la inteligencia artificial (IA) para atraer la atención de los usuarios, maximizar su enganche y eliminar el pensamiento crítico.

En muchos aspectos, la microsegmentación es el equivalente digital de la crisis de opioides. Pero el Congreso estadounidense actuó agresivamente para proteger a la gente de los opioides con legislación diseñada para aumentar el acceso a los tratamientos, la educación y los medicamentos alternativos. Para detener la adicción del mundo a las noticias falsas y las mentiras, los legisladores deben aceptar la crisis de desinformación como lo que es y emprender acciones similares, comenzando con la regulación adecuada de la microsegmentación.

El problema es que nadie fuera de Facebook sabe cómo funcionan los complejos algoritmos de la empresa y podría llevar meses, o años, decodificarlos. Esto significa que los reguladores no tendrán otra opción más que depender de los propios empleados de Facebook para que los guíen a través de la fábrica. Para alentar esta cooperación, el Congreso debe ofrecer inmunidad civil y criminal completa, e indemnización financiera.

Regular los algoritmos de las redes sociales parece complicado, pero es algo muy fácil de lograr cuando se lo compara con los peligros digitales aún mayores que acechan en el horizonte. Los «ultrafalsos» (deepfakes) —videos e imágenes manipulados a gran escala mediante IA para influir sobre las opiniones de la gente— apenas son tema de conversación en el Congreso. Mientras que los legisladores se desesperan por las amenazas que implican los contenidos tradicionales, los ultrafalsos representan un desafío aún mayor para la privacidad individual, la democracia y la seguridad nacional.

Mientras tanto, Facebook es cada vez más peligroso. Una investigación reciente del MIT Technology Review descubrió que Facebook financia la desinformación «con el pago de millones de dólares para anuncios, que financian a actores que usan “ciberanzuelos”» a través de su plataforma de publicidad. Y el director ejecutivo Mark Zuckerberg planea construir un metaverso —«la convergencia de las realidades física, aumentada y virtual»— que debiera asustar a los reguladores por doquier. Imaginen el daño que podrían producir esos algoritmos de IA no regulados si se les permite crear una nueva realidad inmersiva para miles de millones de personas.

En una de sus declaraciones después de las audiencias recientes en Washington D. C., Zuckerberg reiteró una oferta que ya hizo antes: regúlennos. «No creo que las empresas privadas deban tomar todas las decisiones por sí solas», escribió en Facebook. «Nos comprometemos a trabajar de la mejor manera posible, pero en algún punto la entidad que debe evaluar las alternativas entre las equidades sociales es el Congreso, democráticamente electo».

Zuckerberg tiene razón, el Congreso tiene la responsabilidad de actuar, pero Facebook también la tiene. Puede mostrar al Congreso cuáles son las inequidades que sigue creando y cómo lo hace. Hasta que Facebook exponga sus algoritmos al escrutinio —guiado por el conocimiento de sus propios expertos—, la guerra contra la desinformación será imposible de ganar y las democracias en todo el mundo continuarán a merced de una industria inescrupulosa y renegada

František Vrabel es director ejecutivo y fundador de Semantic Visions, una empresa de analítica con sede en Praga, que recopila y analiza el 90 % de los contenidos de noticias en línea del mundo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

El comentario no puede estar vacío
Por favor rellene el usuario
Es necesario escribir un correo válido

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.