Facebook
Tiempo de lectura: 5 minutos

Bloomberg — Es posible que la derecha y la izquierda no estén de acuerdo en lo que constituye información errónea, pero a ambos les gustaría ver menos en las redes sociales. Y mientras el mundo enfrenta el tercer año de la pandemia de Covid-19, la amenaza que representa la desinformación médica para la salud pública sigue siendo real. Empresas como Twitter (TWTR) y Facebook (FB) tienen interés en limpiar sus plataformas, sin depender de la censura o la verificación de hechos.

La censura puede generar desconfianza cuando las empresas de redes sociales eliminan publicaciones o eliminan cuentas sin explicación. Incluso puede elevar el perfil de aquellos que han sido “cancelados”.

Y la verificación de hechos no es una buena solución para conceptos científicos complejos. Eso es porque la ciencia no es un conjunto de hechos inmutables, sino un sistema de investigación que construye teorías provisionales basadas en datos imperfectos.

Una publicación reciente en Politifact ilustra el problema. La afirmación en cuestión: un meme que circula en Facebook de que los virus evolucionan para ser menos virulentos. Politifact lo consideró falso, pero el virólogo de la Universidad de Purdue, David Sanders, no está de acuerdo. “Diría que en realidad es cierto que los virus tienden a evolucionar para ser menos dañinos para su anfitrión”, me dijo, aunque es un proceso que a veces puede llevar décadas, o incluso siglos, desde el momento en que un nuevo virus salta de un animal a un huésped humano. Sanders dijo que Politifact había combinado la virulencia con otras cosas, como la resistencia a las drogas. Cuando un tema complejo sigue siendo motivo de incertidumbre científica y debate, calificarlo como “verdadero” o “falso” no funciona muy bien.

PUBLICIDAD

Otra limitación de la verificación de hechos: hay tanto contenido dudoso flotando en Facebook y Twitter que los verificadores de hechos humanos solo pueden llegar a una fracción minúscula. Los consumidores pueden suponer erróneamente que lo que sobra ha sido revisado y es confiable.

“No es un medio de búsqueda de la verdad, está destinado al entretenimiento”, dice Gordon Pennycook de la Universidad de Regina en Canadá.

Pero está convencido de que Facebook y Twitter pueden ser menos engañosos aprovechando el poder analítico del cerebro humano.

PUBLICIDAD

Una forma es aprovechar el fenómeno conocido como “la sabiduría de las multitudes”. Si le hace una pregunta difícil a suficientes fuentes independientes, como cuán profundo es el Océano Pacífico en su punto más profundo, las personas convergen en la respuesta correcta. Pero las redes sociales desvían nuestra brújula de búsqueda de multitudes.

La colaboración colectiva (crowdsourcing) solo funciona cuando cada persona piensa de forma independiente. En las redes sociales, los usuarios obtienen pistas que conducen a la intimidación y la acumulación, y las cuentas falsas o los “bots” automatizados pueden dar la ilusión de que una gran multitud está impresionada o indignada por una noticia.

“No es necesariamente que [a los usuarios] no les importe la precisión. Pero en cambio, es que el contexto de las redes sociales simplemente los distrae y se olvidan de pensar si es correcto o no antes de decidir compartirlo”, dijo su socio de investigación David Rand, profesor de ciencias de la gestión y ciencias cognitivas en el MIT.

Rand admite que él mismo cayó en esa trampa, compartiendo un dato inventado atribuido a Ted Cruz, una declaración de que creería en el cambio climático cuando Texas se congelara. “Era la época en que había todas esas tormentas de nieve en Texas. Y yo estaba como, ‘Dios mío, qué bien’”.

PUBLICIDAD

Lo que Rand y Pennycook encontraron en un estudio reciente, publicado en la revista Nature, fue que las personas mejoraron la precisión de compartir su participación cuando se les pidió por primera vez que calificaran la veracidad de un titular. La idea era que esto cambiaría la atención de las personas hacia la veracidad, lo que las personas dicen que creen que es importante incluso cuando comparten cosas en función de cuán populares puedan ser.

Rand y Pennycook descubrieron que la combinación de suficientes usuarios de las redes sociales para evaluar las noticias generaba un efecto de sabiduría de la multitud, y el sistema producía respuestas que coincidían con múltiples verificadores de hechos, así como los verificadores de hechos coincidían entre sí.

“Alrededor de 10 o 15 personas comunes, eso equivale a aproximadamente un verificador de datos”, dijo Pennycook.

PUBLICIDAD

Facebook y Twitter podrían aprovechar la colaboración colectiva para elevar las historias que tienen más probabilidades de ser ciertas. “Podría usar eso para informar su clasificación para que corresponda con la precisión real”, dijo Pennycook. “En cierto sentido eso es sacarlo de las manos de terceros y devolvérselo a la gente”.

En cambio, los algoritmos en plataformas como Twitter, YouTube (GOOGL), Instagram(FB) y Facebook están estructurados para suprimir el aprendizaje y alimentar a las personas con una dieta de comida chatarra informativa que refuerza las creencias y los prejuicios existentes, según una serie de modelos y experimentos dirigidos por Filippo Menczer, profesor de la Centro de Investigación de Redes y Sistemas Complejos de la Universidad de Indiana.

“A lo que estamos expuestos en las redes sociales se ve fuertemente afectado por nuestras propias opiniones preexistentes” dijo en mi podcast sobre la desinformación médica . Y esa es una de las razones por las que los temas médicos aparentemente apolíticos se politizan. “Las entidades políticas tienen interés en usar cualquier cosa a la que la gente esté prestando atención, por ejemplo, una crisis de salud, para manipular a las personas”.

El mito de que “la gente se está volviendo más tonta” ha sido adoptado tanto por la derecha como por la izquierda política. No nos estamos volviendo más tontos. Todos luchamos por comprender lo que sucede en un mundo complejo y fracturado. La censura e incluso la verificación de hechos en las redes sociales no resolverán ese problema. Para hacer eso, las plataformas pueden cambiar el sistema, dando a los usuarios más poder sobre lo que ven.

PUBLICIDAD

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Este artículo fue traducido por Miriam Salazar