Community Notes depende de voluntarios que marcan las publicaciones erradas y posteriormente agregan comentarios con enlaces a artículos científicos u otras fuentes.
Tiempo de lectura: 4 minutos

Bloomberg — Cuando en la primavera del año 2022 Elon Musk adquirió Twitter (ahora X), la plataforma de redes sociales eliminó a sus moderadores tras bambalinas, prescindió del sistema que permitía a los usuarios marcar tuits para su evaluación y, en el mes de septiembre del año pasado, implantó un nuevo sistema destinado a contrarrestar la falsa información, una forma de crowdsourcing (colaboración abierta) denominada Community Notes (notas comunitarias).

Estos cambios provocaron una oleada de reacciones de rechazo.

Sin embargo, la función Community Notes tiene la ventaja de la transparencia y ofrece ventajas científicas y médicas. Además de un nuevo análisis académico, apunta a que funciona, por lo menos, en temas científicos.

Para los investigadores que analizan las plataformas sociales es motivo de gran inquietud la proliferación de discursos que incitan al odio y a la violencia, en los que la gente puede reaccionar inmediatamente y de forma violenta, lo que no es adecuado para Community Notes.

PUBLICIDAD

En 2023 se hizo extremadamente caro para los investigadores disponer de los datos que precisaban para el estudio de estos persistentes problemas.

John Ayers, médico de la Universidad de California en San Diego y autor principal de este nuevo análisis, explica que los datos de Community Notes son fáciles de conseguir.

A la hora de resolver asuntos fácticos en sectores como la ciencia y la salud, los científicos sociales recomiendan el crowdsourcing, citando estudios que muestran el poder de la inteligencia colectiva.

PUBLICIDAD

Diversos estudios han contrastado la colaboración abierta con profesionales de la comprobación de hechos y han llegado a la conclusión de que funciona tan bien como el crowdsourcing al evaluar la fiabilidad de las noticias.

Ahora, Ayers y otros médicos analizaron específicamente la precisión de las Community Notes de X, utilizando el polémico tema de las vacunas Covid-19 como caso de prueba. Los resultados, publicados recientemente en el Journal of the American Medical Association (Revista de la Asociación Médica de EE.UU.), mostraron que las notas casi siempre eran precisas y por lo general citaban fuentes de alta calidad.

Community Notes depende de voluntarios para marcar publicaciones engañosas y luego agregar comentarios correctivos completos con enlaces a artículos científicos o fuentes de medios. Otros usuarios pueden votar sobre el valor de las notas (una característica utilizada desde hace mucho tiempo en Reddit).

El antiguo sistema se basaba en verificadores de datos cuya identidad y credenciales científicas se desconocían. Podrían eliminar publicaciones que consideraran desinformación, prohibir a los usuarios o utilizar la técnica más clandestina de “prohibiciones en la sombra” mediante la cual las publicaciones de los usuarios se ocultaban sin su conocimiento.

PUBLICIDAD

Los moderadores de contenidos empleados por las empresas de redes sociales también han sido atacados por moverse demasiado lento y no eliminar el contenido violento o de odio. Puede resultar imposible para cualquier empresa de redes sociales mantenerse al día, por lo que es importante explorar otros enfoques.

El nuevo sistema no es perfecto, pero parece bastante preciso.

En el estudio de JAMA, los médicos analizaron una muestra de 205 notas comunitarias sobre las vacunas Covid-19. Estuvieron de acuerdo en que la información generada por los usuarios era precisa el 96% de las veces y que las fuentes citadas eran de alta calidad el 87% de las veces.

PUBLICIDAD

Si bien solo se marcó una pequeña fracción de las publicaciones engañosas, aquellas a las que se adjuntaron notas se encontraban entre las más virales, dijo el autor principal Ayers.

El psicólogo Sacha Altay, que no participó en la nueva investigación, dijo que la gente tiende a subestimar el poder de la inteligencia colectiva, que ha demostrado ser sorprendentemente buena para pronosticar y evaluar información, siempre que participen suficientes personas.

La percepción pública de la desinformación en las redes sociales a menudo está distorsionada por prejuicios políticos, indignación y autoengaño.

El año pasado, un grupo de investigadores de la Universidad de Oxford suscitó una reflexión muy necesaria con un estudio titulado “La gente cree que la desinformación es una amenaza porque asumen que otros son crédulos“.

PUBLICIDAD

En otras palabras, las personas más indignadas por las noticias falsas no temen ser engañadas; les preocupa que otros también lo estén. Pero tendemos a sobreestimar nuestros propios niveles de discernimiento.

Durante la pandemia, los verificadores de datos y moderadores etiquetaron muchas declaraciones subjetivas como información errónea, especialmente aquellas que juzgaban que diversas actividades eran “seguras”.

Pero no existe una definición científica de seguridad, razón por la cual la gente podía hablar durante meses sobre si era seguro permitir que los niños volvieran a la escuela o reunirse sin máscaras. Gran parte de lo que se calificó de desinformación no era más que opinión minoritaria .

PUBLICIDAD

El antiguo sistema de censura de Twitter se basaba en la suposición de que las personas se saltan las vacunas o toman malas decisiones porque están expuestas a información errónea.

Pero otra posibilidad es que la falta de confianza sea el verdadero problema: la gente pierde la confianza en las autoridades sanitarias o no puede encontrar la información que busca, y eso les lleva a buscar fuentes marginales. Si ese es el caso, la censura podría generar más desconfianza al sofocar la discusión abierta sobre temas importantes.

Por supuesto, la gente no suele presentarse como “pro-censura”, incluso si eso es lo que está sucediendo. Es más probable que los conservadores acepten la censura del material que consideran indecente, mientras que es más probable que los liberales toleren la censura de la información que consideran dañina.

PUBLICIDAD

Pero ambas partes deberían aprobar cualquier sistema que desaliente las suposiciones ciegas y los juicios precipitados y fomente la discusión abierta, la reflexión y el despliegue de la capacidad intelectual colectiva. Musk es una figura divisiva y hay muchas cosas que no me gustan de los cambios recientes en X, pero al menos Community Notes representa una actualización.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com