Hombres blancos, sí. Chicos negros, no: así funcionan en Facebook las guías contra discursos de odio
La red social protege al grupo social de "hombres blancos" de los discursos de odio, mientras que no sucede lo mismo con otros.
Una serie de documentos internos filtrados de Facebook reveló que la plataforma protege al grupo social de “hombres blancos” de los discursos de odio, mientras que no sucede lo mismo con otros, como el de “mujeres conductoras” y “chicos negros”, según una investigación que accedió a las guías de moderadores de contenido de esa red social.
La lógica seguida por los algoritmos fue revelada por el sitio de periodismo de investigación estadounidense ProPublica, que accedió al manual interno con el cual Facebook entrena a sus trabajadores para distinguir entre “discurso de odio y expresión política legítima”.
Uno de los apartados de estas “guías secretas” contenía un cuestionario que mostraba a tres grupos: mujeres conductoras (de autos), niños negros, y hombres blancos. La pregunta que se debía responder a la hora de aplicar un criterio era: “Qué grupo está protegido del discurso de odio?”. La respuesta correcta: “Los hombres blancos”.
La razón que guía a este cuestionario -detalló ProPublica- es que Facebook elimina los mensajes con insultos, llamados a la violencia y varios otros tipos de ataques solo cuando se dirigen a las llamadas “categorías protegidas”.
Estas están basadas en la raza, el sexo, la identidad de género, la afiliación religiosa, el origen nacional y étnico, la orientación sexual y las enfermedades o discapacidades graves. En cambio, no protege a lo que tiene que ver con ideologías políticas, ocupación, edad y clase social.
En el ejemplo, los “hombres blancos” son considerados un grupo porque ambos rasgos están protegidos (raza y sexo). Pero las mujeres conductoras y los niños negros son “subconjuntos”, porque una de sus características no está protegida.
Con un equipo de monitoreo de contenido compuesto por 4.500 empleados -y el anuncio realizado en mayo por Mark Zuckerberg de incorporar 3.000 más-, la popular red social manifiesta identificar los discursos de odio para luchar contra la violencia de las publicaciones que hacen sus 2.000 millones de usuarios en todo el mundo.
Una posible forma de verificar la lógica del cuestionario en la práctica puede ser aquella -citada por ProPublica- que ocurrió tras el ataque terrorista en Londres a principios de mes, cuando el congresista republicano de Estados Unidos Clay Higgins publicó en Facebook un mensaje en el que pedía “la matanza de los musulmanes radicalizados”.
“Cazarlos, identificarlos y matarlos” (“Hunt them, identify them, and kill them”)”, había escrito Higgins.
“Matarlos a todos. Por el bien de todo lo que es bueno y justo. Matarlos a todos” (“For the sake of all that is good and righteous. Kill them all”), había agregado el congresista estadounidense.
Este mensaje de incitación a la venganza violenta manifestado por Higgins no fue eliminado por el equipo de monitoreo de contenido ofensivo.
Sin embargo, en mayo, la poeta y activista de “Black Lives Matter”, Didi Delgado, recibió una respuesta diferente por parte de la misma red social.
“Todos los blancos son racistas. Empezá desde este punto de vista, o ya has fallado” (“All white people are racist. Start from this reference point, or you’ve already failed”), escribió Delgado. Esta publicación sí fue eliminada de Facebook y la cuenta de Delgado estuvo inhabilitada por por siete días.
En base al cuestionario arriba mencionado, la lógica que aplica a este caso real es la siguiente: la incitación a la violencia por parte de Higgins no fue eliminada porque se dirigía a un grupo sub-específico de musulmanes: los “radicalizados”.
En tanto que el posteo de Delgado sí fue eliminado porque “atacaba a los blancos en general”.
“Las políticas no siempre conducen a resultados perfectos”, justificó a ProPublica Monica Bickert, directora de políticas globales de Facebook. “Esa es la realidad de tener políticas que se aplican a una comunidad global donde personas de todo el mundo van a tener ideas muy diferentes sobre lo que está bien compartir”.
Mientras que Facebook recibió los créditos durante la “Primavera Árabe” (2010-2011) al facilitar los levantamientos contra regímenes autoritarios, los documentos sugieren que, al menos en algunos casos, las reglas de discursos de odio de esta empresa tienden a favorecer a las élites y los gobiernos por sobre los activistas y las minorías raciales. Al hacerlo, sirven a los intereses comerciales de la empresa global, que depende de gobiernos nacionales para que no bloqueen el servicio a sus ciudadanos.