El 24 de octubre se cumplieron 74 años de la entrada en vigor de la Carta de las Organización de Naciones Unidas (ONU) y, por lo tanto, de su fundación. En aquel momento, en un histórico acto se desarrolló en San Francisco, Estados Unidos, 46 naciones que habían declarado la guerra a Alemania y Japón suscribieron la Declaración de las Naciones Unidas de 1942.

Casi tres cuartos de siglo después, un fenómeno mundial de base se repite: el odio. David Kaye, Relator Especial para la Libertad de Opinión y Expresión de la ONU, hizo un llamado a plataformas y gobiernos del planeta “para que adopten medidas alineadas con los estándares internacionales de derechos humanos, con el objetivo de combatir los discursos de odio”.

Odio en línea

En un informe presentado ante la Asamblea General de la ONU, Kaye estableció que las prácticas de discursos de odio en línea a través de redes sociales o de mediaciones digitales “no son menos dañinas porque estén en línea, sino que, por el contrario, con la velocidad y el alcance de su transmisión provocan graves daños que casi siempre tienen el objetivo de silenciar a los demás”. El relator remarcó que la comunidad internacional no debe enfocarse en la discusión sobre si se debe o no abordar el análisis de estos discursos como abusos, sino en encontrar la forma de hacer que se respeten los derechos humanos de todos los ciudadanos.

Según las conclusiones del funcionario de ONU, los discursos de odio en línea tienen como objetivo principal a las personas marginadas. En su presentación, Kaye reconoció que los estados y las compañías no están logrando evitar estos discursos e instó a ambos a ceñirse de inmediato y con seriedad a las normas internacionales de derechos humanos.

Pocos resultados

“La comunidad internacional de derechos humanos ha tenido conversaciones a largo plazo con las plataformas de redes sociales y otras empresas de la economía de Internet”, sostuvo el relator. Sin embargo, según Kayne, las empresas siguen obstinadamente comprometidas con políticas que no articulan sus acciones con las normas básicas de respeto a los derechos humanos: desde la libertad de expresión y la privacidad, hasta las prohibiciones de discriminación, incitación a la violencia o la promoción de movilizaciones o alzamientos públicos.

“Las compañías valoran a sus accionistas más que al interés público y eso debe terminar de inmediato”, concluyó en su reporte ante la Asamblea General de la ONU. “Ellos no se toman en serio sus responsabilidades de respetar los derechos humanos”, dijo, y agregó que “es en sus plataformas donde se propagan los discursos de odio, impulsados por un modelo comercial y de herramientas algorítmicas que solo tienen en cuenta la viralidad y lograr cada vez más grandes audiencias”.

En el reporte también se analiza especialmente la ausencia de evaluaciones de impacto en los derechos humanos en todas las etapas del desarrollo del producto, la vaguedad de las reglas de las compañías y la falta de transparencia de los procesos de las plataformas sociales en red.

Herramientas claras

Este informe brinda a las empresas y los estados las herramientas para cambiar el rumbo”, alertó Kaye, y recomendó a los gobiernos la adopción de “buenas prácticas de gobernanza” que vayan en línea con el Plan de Acción de Rabat y la Resolución 16/18 del Consejo de Derechos Humanos. Además, les pidió que adopten o revisen las reglas de responsabilidad de intermediarios para adherir a los derechos humanos.

No menos importante es la propuesta sobre la necesidad de establecer o fortalecer mecanismos judiciales para asegurar que los individuos tengan acceso a la justicia y a remedios frente a situaciones generadas por la propagación y la afectación de discursos de odio. Kaye propuso a las empresas que realicen estudios serios sobre el gran impacto que los derechos humanos tienen sobre sus usuarios y su público. Esas evaluaciones, que las empresas han evitado por mucho tiempo, deberían ser hechas sin mayor demora, según reclamó. También señaló que se deben crear bases de datos con los resultados de todas las acciones a las que las compañías se comprometan a trabajar sobre los discursos de odio.

El relator también le exigió a las compañías definir la categoría de contenido que consideran “discurso de odio” con una explicación razonable para los usuarios y utilizando aproximaciones que sean consistentes en las diferentes jurisdicciones. Otra de las recomendaciones procura asegurar que cualquier implementación de reglas de discurso de odio involucre la evaluación del contexto y del daño que el contenido impone a los usuarios y al público en general. Ello incluye que se asegure que en el circuito de uso de herramientas de automatización o inteligencia artificial estén involucrados seres humanos. En relación al análisis contextual, el informe indicó que las compañías deben garantizar la participación de las comunidades afectadas para la identificación de herramientas efectivas que aborden los daños causados por las plataformas.

FacebookTwitter