Las Naciones Unidas elaboraron un protocolo de de Código de Conducta global que incluye la colaboración de las empresas de redes sociales, para detener la discriminación y violencia étnica. En base a ese protocolo, se instará a las plataformas de redes sociales a proteger a las minorías y ayudar a prevenir la violencia étnica mediante la contratación de moderadores que no hablan inglés y la realización de pruebas de seguridad en sus algoritmos.

Un trío británico cuyo trabajo ha influido en el marco regulatorio detrás del proyecto de ley de seguridad en línea en el Reino Unido envió un plan detallado para abordar el contenido tóxico en las redes sociales y plataformas de video a un funcionario de la ONU que elabora pautas contra el odio en línea.

El mes pasado, una denunciante de Facebook afirmó que su ex empleador estaba "literalmente avivando la violencia étnica" en países como Etiopía porque la empresa no vigilaba adecuadamente su servicio fuera de Estados Unidos. En testimonio a los legisladores estadounidenses, Frances Haugen dijo que aunque solo el 9% de los usuarios de Facebook hablan inglés, el 87% del gasto en desinformación de la plataforma se dedica a los angloparlantes.

“Frances Haugen ha planteado la cuestión de los sistemas y procesos débiles en las empresas de redes sociales que causan daños”, dijo William Perrin, fideicomisario de la organización benéfica Carnegie UK Trust y coautor de las propuestas. “Esta guía proporciona una forma de fortalecer este proceso y reducir el daño en todo el mundo. En particular, hemos recogido el punto de Haugen sobre la capacidad lingüística: debería haber un número adecuado de personas en estas empresas que comprendan lo que realmente está sucediendo en estas plataformas para evitar que el discurso de odio perjudique a las minorías", explicó.

Las propuestas están siendo consideradas por el relator especial de la ONU sobre cuestiones de las minorías, Fernand de Varennes, quien está redactando directrices para combatir el discurso de odio en las redes sociales dirigido a las minorías. Las directrices se presentarán al consejo de derechos humanos de la ONU.

La presentación de Carnegie UK Trust establece: “Los proveedores de servicios de redes sociales deben tener un número suficiente de moderadores, proporcionales al tamaño y crecimiento del proveedor de servicios y al riesgo de daño, que puedan revisar el discurso de odio dañino e ilegal y que sean ellos mismos debidamente respaldado y protegido ".

Agrega que los moderadores deben estar “capacitados en sus temas de especialización y en consideraciones relacionadas con el idioma y el contexto cultural”.