in

Aclarar los hechos sobre la desinformación en línea

Una dama enseñando en Cranfield School of Management

El aumento de la retórica engañosa de los candidatos al Congreso de EE. UU. sobre temas como la integridad electoral ha ejercido una presión renovada sobre las plataformas de redes sociales antes de la votación de noviembre. Y la percepción de que las empresas de tecnología están haciendo poco para combatir la desinformación plantea dudas sobre sus obligaciones democráticas y plantea riesgos comerciales. Pero, quizás sorprendentemente, las iniciativas recientes sugieren que las plataformas pueden canalizar las motivaciones partidistas para democratizar la moderación.

Una explicación de la respuesta aparentemente tibia de las plataformas es la presión conflictiva que enfrentan las empresas por parte de los críticos. Siete de cada 10 adultos estadounidenses, y la mayoría de los expertos, ven la desinformación como un «problema importante» y creen que las empresas de Internet deberían hacer más para frenar su propagación. Sin embargo, destacados políticos republicanos han llamado a la moderación «censura» y amenazado con aprobar leyes que limiten la capacidad de autorregulación de las plataformas. La regulación plantea serios desafíos para el modelo comercial de las empresas de redes sociales, al igual que la pérdida de usuarios que están desilusionados por la sensación de que la desinformación o el sesgo político están desenfrenados.

¿Cómo pueden las empresas de redes sociales enhebrar la aguja de participar en una moderación significativa mientras escapan de las acusaciones de censura y parcialidad partidista? Una solución potencial que las plataformas han comenzado a probar es democratizar la moderación a través de la verificación de hechos de colaboración colectiva. En lugar de depender únicamente de verificadores de hechos profesionales y algoritmos de inteligencia artificial, están recurriendo a sus usuarios para que los ayuden a tomar el relevo.

Esta estrategia tiene muchas ventajas. En primer lugar, el uso de laicos para verificar el contenido es escalable de una manera que la verificación de hechos profesional, que se basa en un pequeño grupo de expertos altamente capacitados, no lo es. En segundo lugar, es rentable, especialmente si los usuarios están dispuestos a marcar contenido inexacto sin que se les pague. Finalmente, debido a que la moderación la realizan los miembros de la comunidad, las empresas pueden evitar acusaciones de sesgo de arriba hacia abajo en sus decisiones de moderación.

Ranking FT Executive MBA 2022

La escuela Cranfield del Reino Unido está de vuelta en la tabla de la liga FT de títulos EMBA

Descubre en qué escuelas están nuestro ranking de títulos EMBA. también aprende cómo se compiló la tabla y lea el resto de nuestra cobertura en ft.com/emba.

Pero, ¿por qué alguien debería confiar en la multitud para evaluar el contenido de manera razonable? La investigación dirigida por mi colega Jennifer Allen arroja luz sobre cuándo las evaluaciones colaborativas pueden ser una buena solución y cuándo no.

Primero, las buenas noticias. Un escenario que estudiamos fue cuando se asigna aleatoriamente a laicos para calificar contenido específico y se combinan sus juicios. Nuestra investigación ha encontrado que promediar los juicios de pequeñas multitudes políticamente equilibradas de laicos coincide con la precisión evaluada por expertos, en la misma medida en que los expertos coinciden entre sí.

Esto puede parecer sorprendente, ya que los juicios de cualquier laico individual no son muy confiables. Pero más de un siglo de investigación sobre la «sabiduría de las multitudes» ha demostrado cómo la combinación de las respuestas de muchos no expertos puede igualar o superar los juicios de los expertos. Esta estrategia ha sido empleada, por ejemplo, por Facebook en su Community Review, que contrató a contratistas sin capacitación específica para escalar la verificación de hechos.

Sin embargo, los resultados son más mixtos cuando los usuarios pueden verificar cualquier contenido que elijan. A principios de 2021, Twitter lanzó un programa de moderación de colaboración colectiva llamado Birdwatch, en el que los usuarios habituales pueden marcar los tweets como engañosos y escribir verificaciones de hechos de respuesta libre que «agregan contexto». Otros miembros de la comunidad de Birdwatch pueden votar a favor o en contra de estas notas para proporcionar comentarios sobre su calidad. Después de agregar los votos, Twitter destaca las notas más «útiles» y las muestra a otros usuarios de Birdwatch y más allá.

A pesar de las nobles intenciones, un nuevo estudio realizado por nuestro equipo encontró que el partidismo político es un factor importante en la participación de los usuarios en Birdwatch. Marcan y verifican abrumadoramente los tuits escritos por personas con opiniones políticas opuestas. Principalmente votan a favor de las verificaciones de hechos escritas por sus copartidarios y califican las de los contrapartidarios como inútiles. Esta práctica hizo que los puntajes promedio de ayuda de Birdwatchers casi no tuvieran sentido como una forma de seleccionar buenos verificadores de datos, ya que los puntajes fueron impulsados ​​​​principalmente por quién votó en lugar de los contenidos reales de la nota.

Sin embargo, aquí está la sorpresa agradable: aunque nuestra investigación sugiere que la política es un motivador importante, la mayoría de los tweets que los observadores de aves señalaron fueron realmente problemáticos. Los verificadores de hechos profesionales consideraron que el 86 por ciento de los tuits marcados eran engañosos, lo que sugiere que las motivaciones partidistas que impulsan a las personas a participar no hacen que marquen indiscriminadamente contenido contrapartidista. En cambio, en su mayoría buscan publicaciones engañosas del otro lado del pasillo. Las dos partes se están vigilando de manera algo efectiva entre sí.

Estas investigaciones dejan las plataformas con varias conclusiones importantes. En primer lugar, la verificación de hechos colaborativa puede ser una parte potencialmente poderosa de la solución a los problemas de moderación en las redes sociales si se implementa correctamente.

En segundo lugar, canalizar las motivaciones partidistas para que sean productivas, en lugar de destructivas, es fundamental para las plataformas que desean utilizar la moderación colaborativa. El partidismo parece motivar a las personas a ofrecerse como voluntarias para los programas de verificación de hechos, lo cual es crucial para su éxito. En lugar de buscar reclutar solo a los pocos que son imparciales, la clave es descartar la pequeña fracción de fanáticos que ponen el partidismo por encima de la verdad.

Finalmente, se necesitan estrategias más sofisticadas para identificar verificaciones de hechos que sean útiles. Debido al sesgo partidista exhibido por las calificaciones, no es suficiente simplemente promediar las puntuaciones de ayuda. El desarrollo de tales estrategias es actualmente un enfoque principal del equipo de Birdwatch.

Profesor David Rand

Profesor David Rand

A las empresas probablemente les encantaría evitar por completo la práctica espinosa de la moderación de contenido. Sin embargo, Truth Social, la nueva plataforma de medios sociales «sin censura» de Donald Trump, ha mostrado los peligros de eludir el problema. La desinformación y las amenazas de terrorismo interno han abundado, lo que ha provocado que la tienda Google Play bloquee la aplicación. La moderación es necesaria para que las plataformas sobrevivan, para que no se vean invadidas por rumores peligrosos y llamados a la violencia. Pero involucrar a los usuarios en ese proceso de moderación puede ayudar a las plataformas a satisfacer a los críticos de ambos lados, identificando información errónea a gran escala y evitando afirmaciones de sesgo de arriba hacia abajo. Por lo tanto, existe un caso comercial sólido para que las plataformas inviertan en verificación de hechos de colaboración abierta.

La lucha contra la desinformación es un desafío que requiere una amplia gama de enfoques. Nuestro trabajo sugiere que una ruta importante para que las empresas de redes sociales salven a la democracia de la desinformación es democratizar el proceso de moderación en sí.

David Rand es profesor de Erwin H Schell en el MIT y coautor del artículo ‘Birds of a feather don’t fact check each other’

Fuente

Written by PyE

Brasil nominará al exgobernador del banco central Goldfajn para el puesto más alto del BID: Informe

Brasil nominará al exgobernador del banco central Goldfajn para el puesto más alto del BID: Informe

Israel insta a ayudar a Ucrania en medio de rumores de que Irán suministra armas a Rusia

Israel insta a ayudar a Ucrania en medio de rumores de que Irán suministra armas a Rusia