Los esfuerzos de Facebook por eliminar contenido antivacunas no funcionaron
Durante la pandemia de Covid-19, la red social eliminó la desinformación sobre vacunas como política. No obstante, el nivel de interacción de los usuarios con este tipo de publicaciones no solo no se redujo, sino que en algunos casos aumentó.
Foto: EFE | EPA | John G. Mabanglo.
Los esfuerzos de la red social Facebook por eliminar contenido antivacunas de su plataforma durante los peores meses de la pandemia de Covid-19 no sirvieron para reducir la exposición de sus usuarios a este tipo de publicaciones, según un estudio publicado en la revista Science Advances.
Investigadores de la Universidad George Washington, en Washington D.C., descargaron datos públicos de la plataforma de diferentes fechas (antes de que comenzara la política de eliminación de información falsa sobre las vacunas, en diciembre 2020, y después), y vieron que el nivel de interacción de los usuarios con este tipo de publicaciones no solo no se redujo, sino que en algunos casos aumentó.
En un comunicado, una de las investigadoras, Lorien Abroms, explicó que sus resultados demuestran lo difícil que es eliminar la desinformación sobre temas de salud de los espacios públicos.
Su principal hipótesis es que fue la propia arquitectura de Facebook, y en concreto sus sistemas diseñados para impulsar la creación de grupos y compartir información, lo que provocó ese aumento de las interacciones con contenido antivacunas, pese a los esfuerzos de la plataforma por eliminarlo.
“Los individuos que tienen una alta motivación para encontrar y compartir contenido antivacunas simplemente están utilizando el sistema de la forma en que está diseñado”, dijo en el comunicado David Broniatowski, el autor principal del estudio.
Su conclusión es que eliminar contenido o cambiar los algoritmos no sirve si no se modifica el objetivo principal de las plataformas, que es la conexión de diferentes personas que comparten intereses comunes, en este caso, el miedo a las vacunas.
Los investigadores enfatizaron que se trata del primer estudio científico que se fija en la eficacia de los esfuerzos de Facebook para eliminar desinformación de su plataforma.
Según la universidad, los hallazgos sugieren que las empresas de redes sociales pueden mitigar estos efectos dañinos colaborando unas con otras para crear “códigos de construcción” de sus aplicaciones, informados por la ciencia, de la misma forma que los arquitectos tienen que asegurar la seguridad de sus edificios incorporando ventilación, salidas de emergencia y otras medidas.
EFE.
Lo más visto hoy
- 1Murió un joven de 17 años al chocar su moto contra un colectivo en la ruta 88 « Diario La Capital de Mar del Plata
- 2Un “resarcimiento” de 180 millones por contaminar el mar, los jóvenes y las apuestas, y los estafados por un falso Elon Musk « Diario La Capital de Mar del Plata
- 3Contrabando de celulares y casinos on line: confirmaron los procesamientos « Diario La Capital de Mar del Plata
- 4Vieja enemistad y fusilamiento en el crimen de la Villa Gascón « Diario La Capital de Mar del Plata
- 5Milei viene al hipermercado, crecen las carpetas médicas policiales y la onda de comprar desde la comodidad del auto « Diario La Capital de Mar del Plata