Santo Domingo 23°C/26°C thunderstorm with rain

Suscribete

El día de las elecciones, a Facebook y Twitter les fue mejor al empeorar sus productos

Hasta el momento, parece que esos esfuerzos han evitado lo peor.

El letrero afuera de la sede de Facebook en Menlo Park, California, el 15 de julio de 2020. (Jim Wilson/The New York Times)

El letrero afuera de la sede de Facebook en Menlo Park, California, el 15 de julio de 2020. (Jim Wilson/The New York Times)

Avatar del Listín Diario
The New York TimesEstados Unidos

El miércoles por la mañana, esa ráfaga de viento que sentiste venir desde Silicon Valley fue el tentativo suspiro de alivio de la industria de las redes sociales.

Durante los últimos cuatro años, los ejecutivos de Facebook, Twitter, YouTube y otras empresas de redes sociales han estado obsesionados con una sola meta general: no ser culpadas de arruinar las elecciones de 2020 en Estados Unidos como ocurrió en 2016, cuando los troles y los traficantes de desinformación de Rusia pisotearon sus defensas.

Por lo tanto, redactaron reglas nuevas. Crearon productos nuevos y contrataron a personal nuevo. Llevaron a cabo ejercicios elaborados de simulación para planear cada uno de los posibles resultados electorales. Y el día de las elecciones, las 24 horas del día pusieron a equipos inmensos a bloquear los fraudes y las falsas declaraciones.

Hasta el momento, parece que esos esfuerzos han evitado lo peor. A pesar de los intentos frenéticos (y bastante predecibles) del presidente Donald Trump y sus aliados de socavar la legitimidad de la votación en los estados donde está perdiendo, esta semana no se ha encontrado ninguna campaña importante de interferencia, y el mismo día de las elecciones estuvo relativamente tranquilo. Se han eliminado con rapidez las cuentas falsas y los grupos que podrían ser peligrosos, y Facebook y Twitter han sido inusualmente proactivos al momento de estampar etiquetas y advertencias ante las afirmaciones prematuras de victoria (YouTube fue una historia distinta, como lo evidenció la lenta y tibia respuesta de la empresa frente a un video que aseguraba de manera falsa que Trump había ganado la elección).

La semana es joven, claro está, y todavía queda tiempo suficiente para que se presenten problemas. La desinformación relacionada con las elecciones ya se está volviendo tendencia —parte de ella dirigida a los latinos— y solo irá en aumento a medida que los votos se desafíen en los tribunales y los conspiracionistas aprovechen toda la incertidumbre para debilitar la confianza en los resultados finales.

Sin embargo, los peores miedos de las plataformas todavía no se han materializado. Eso es bueno y un reconocimiento para los empleados de esas empresas que han estado ocupados haciendo cumplir sus reglas.

Al mismo tiempo, vale la pena examinar cómo es que Twitter, Facebook y YouTube están evitando los problemas relacionados con las elecciones, porque eso esclarece los verdaderos contratiempos que todavía deben enfrentar.

Durante meses, casi cada una de las medidas que han tomado esas empresas para proteger las elecciones ha involucrado desacelerar, interrumpir o, incluso, obstaculizar partes centrales de sus productos: en términos reales, han defendido la democracia empeorando sus aplicaciones.

Le han agregado fricción a procesos, como la compra de anuncios políticos, que antes no tenían interrupciones. Introdujeron expertos humanos para acabar con los grupos extremistas e intervinieron de manera manual para detener la propagación de las historias sospechosas. Invalidaron sus propios algoritmos para insertar información de expertos de confianza en los perfiles de los usuarios. Además, conforme llegaban los resultados, usaron los anuncios que hicieron organizaciones noticiosas como The Associated Press en vez de confiar en que sus sistemas, de modo natural, llevarían la verdad a la superficie.

En ningún otro lado el cambio ha sido más patente que en Facebook, empresa que durante años se imaginó a sí misma como una especie de plataforma de comunicación poshumana. Mark Zuckerberg, el director ejecutivo de la empresa, a menudo habla sobre su filosofía del diseño “sin fricción”: facilitarles las cosas lo más posible a los usuarios. Hablé con otros ejecutivos que al parecer creían que, a final de cuentas, Facebook se convertiría en una especie de máquina que se iba a autovigilar, y en la que la inteligencia artificial haría buena parte del trabajo sucio, por lo que habría la menor intervención humana posible.

No obstante, en la víspera de las elecciones de 2020, Facebook optó por el camino contrario. Implementó un nuevo y engorroso proceso de aprobación para los anunciantes políticos y bloqueó los anuncios políticos nuevos en el periodo posterior al día de las elecciones. Redujo las afirmaciones falsas y puso un “interruptor de viralidad” para que los verificadores de información tuvieran tiempo de evaluar las historias sospechosas. Además, apagó de manera temporal su algoritmo de recomendación para ciertos tipos de grupos privados a fin de disminuir la posibilidad de que hubiera disturbios violentos.

De hecho, todos estos cambios lograron que Facebook fuera más segura. Sin embargo, también produjeron un reajuste de aquellas funciones que durante años impulsaron el crecimiento de la plataforma. Es un acto revelador de conciencia de sí misma, como si Ferrari se hubiera percatado de que la única manera de evitar que sus autos chocaran fuera remplazar sus motores con los de unos kart.

“En esencia, la respuesta de Facebook en las elecciones fue dirigir una gran parte del tráfico y la atención hacia esos centros que fueron depurados por personas”, opinó Eli Pariser, quien ha sido un ejecutivo y activista de medios durante mucho tiempo y está trabajando en Civic Signals, un nuevo proyecto que busca reimaginar las redes sociales como un espacio público. “Es un indicio de que, a final de cuentas, cuando tienes información muy importante, nada sustituye el juicio humano”.

Twitter, otra plataforma que durante años intentó que hubiera la menor fricción posible en las comunicaciones, dedicó buena parte de los últimos cuatro años a pisar el freno. Introdujo más moderadores, modernizó sus reglas y aumentó la vigilancia humana en funciones como los temas del momento. En los meses previos a las elecciones, prohibió los anuncios políticos e inhabilitó las funciones para compartir en los tuits con información engañosa sobre los resultados de las elecciones, entre ellos algunos de la cuenta del presidente.

Esta semana, YouTube no estuvo ni cerca de actuar con la misma agresividad, pero también ha cambiado su plataforma de un modo revelador. El año pasado, modificó su elogioso algoritmo de recomendaciones para detener la propagación del llamado contenido limítrofe. Además, comenzó a promover “fuentes acreditadas” durante noticias de última hora para evitar que los cascarrabias y los conspiracionistas llenaran los resultados de búsquedas.

Todo esto genera la pregunta crucial de qué sucederá con exactitud cuando terminen las elecciones y los reflectores se alejen de Silicon Valley. ¿Quitarán las etiquetas de advertencia y los interruptores? ¿Volverán a encender los algoritmos problemáticos? ¿Simplemente volvemos a las redes sociales como si nada?

“Todos los días se usan estas plataformas para conversaciones muy importantes”, opinó Pariser. “Si hacen eso para las elecciones estadounidenses, ¿por qué no en las elecciones de otros países? ¿Por qué no en el cambio climático? ¿Por qué no en los actos de violencia?”.

Estas son las preguntas que se deben hacer. Las empresas de redes sociales tal vez hayan superado la noche de las elecciones sin ningún desastre. No obstante, como sucede con las elecciones mismas, todavía falta pelear las verdaderas batallas.

La computadora portátil de un miembro del equipo de integridad en las elecciones de Facebook en la sede de la empresa en Menlo Park, California, el 18 de septiembre de 2018. (Jason Henry/The New York Times)