El alto comisionado de las Naciones Unidas para los Derechos Humanos, Volker Türk, afirmó que las regulaciones que buscan evitar la difusión de contenido que incite al odio y a la división en redes sociales son esenciales y no deben ser consideradas como censura. Expresa que permitir discursos de odio en línea tiene consecuencias directas en el mundo real, y regular este tipo de contenidos es una medida necesaria para proteger la seguridad y dignidad de las personas.
“Permitir el discurso de odio y el contenido dañino en línea tiene consecuencias en el mundo real. Regular este contenido no es censura”, expresó Türk en un mensaje publicado en la red social X.
La declaración de Türk surge después de que el conglomerado estadounidense Meta, propietario de plataformas como Facebook, Instagram y WhatsApp, anunciara el 7 de enero la eliminación de su programa de verificación de hechos. Esta decisión delega en los usuarios la responsabilidad de corregir o añadir notas a sus publicaciones. Meta justifica la medida argumentando que su programa de verificación se había convertido en una herramienta de censura, señalando que se habían alcanzado niveles elevados de “errores” y “censura”.
Un cambio impulsado por el regreso de Trump
El CEO de Meta, Mark Zuckerberg, justificó la decisión afirmando que, al seguir los mensajes con comprobadores profesionales, el programa había llegado a un punto en que “había demasiados errores y demasiada censura”. Esta medida también es vista como una respuesta a la victoria electoral de Donald Trump en noviembre de 2024, quien ha sido un crítico feroz de la moderación de contenido en las redes sociales.
Por su parte, el alto comisionado de la ONU subrayó que etiquetar los esfuerzos para crear espacios seguros en línea como censura, “ignora el hecho de que el espacio no regulado significa que algunas personas son silenciadas, en particular aquellas cuyas voces a menudo son marginadas”. Türk agregó que, aunque la libertad de expresión es un derecho fundamental, permitir el odio en línea puede resultar en daños reales, afectando tanto la seguridad como la convivencia social.
El papel de las redes sociales y la responsabilidad de las plataformas
Türk reconoció la enorme capacidad de las redes sociales para conectar a las personas y fomentar el intercambio de ideas. Sin embargo, también advirtió que, sin regulación adecuada, estas plataformas pueden alimentar conflictos, incitar al odio y amenazar la seguridad de los usuarios. En ese sentido, recalcó que las redes sociales deben ser un lugar donde personas con opiniones divergentes puedan debatir de manera civilizada, sin que se vulnere el bienestar común.
Además, el alto comisionado indicó que continuará exigiendo que tanto las corporaciones que gestionan redes sociales como los gobiernos rindan cuentas y trabajen bajo principios de gobernanza basados en los derechos humanos. Esto es fundamental para salvaguardar el discurso público, generar confianza y proteger la dignidad de todos los usuarios.
Preocupaciones sobre la transparencia de las políticas de las tecnológicas
Por su parte, Guilherme Canela, jefe de Libertad de Expresión y Seguridad de los Periodistas en la UNESCO, destacó tres puntos clave que deben considerar las empresas tecnológicas al modificar sus políticas de moderación de contenido y gobernanza digital:
- Transparencia: Las empresas deben ser claras y detalladas al explicar los cambios en sus políticas, así como las implicaciones que estos tienen para la sociedad.
- Análisis de riesgos: Antes de implementar cambios, debe realizarse un análisis de los riesgos potenciales para los derechos humanos, el cual debe ser accesible al público.
- Participación de los actores involucrados: Las políticas deben construirse con la participación efectiva de todos los actores afectados, incluidos los usuarios, la sociedad civil, los organismos internacionales y las propias empresas.
Canela llevará estas preocupaciones a una reunión con ejecutivos de empresas tecnológicas en San Francisco, Estados Unidos, a mediados de enero.