Más Información
Sheinbaum es una "consumidora voraz" de información: José Merino; el tablero de seguridad, herramienta clave, destaca
Oposición tunde diseño de boletas de elección judicial; “la lista definitiva la harán Monreal y Adán Augusto”, dice Döring
Rosa Icela Rodríguez se reúne con próximo titular del INM; “arrancaremos el 2025 con mucho trabajo”, asegura
Se registra ataque de drones con explosivos, ahora en Chihuahua; elementos municipales y federales resultan ilesos
Chiapas aprueba el matrimonio igualitario; colectivos y activistas de la comunidad LGBT+ celebran avance histórico
Cuando el estudiante universitario etíope Moti Dereje inició una sesión en su cuenta de Facebook a fines de noviembre de 2018, esperaba ver las actualizaciones habituales de sus amigos y familiares.
En cambio, el joven de 19 años, que estudiaba en la capital, Addis Abeba, vio una publicación impactante.
"Mientras actualizaba mi fuente de noticias, vi el cadáver de mi padre allí tirado", le dijo al podcast The Comb de la BBC.
Moti no solo quedó devastado al ver una imagen tan horrible, sino que así fue como descubrió que su padre había sido asesinado.
"Me congelé en ese momento. Fue realmente impactante para mí", cuenta.
Etiopía ha estado experimentando disturbios políticos en varias regiones durante los últimos años y las redes sociales se han inundado de imágenes y videos gráficos, desinformación y publicaciones que incitan a la violencia.
Los activistas piden que se haga más para moderar las plataformas y eliminar dicho contenido antes de que cause daño.
Moti, en lugar de ver la foto eliminada como quería, comenzó a encontrar más publicaciones que mostraban la misma imagen.
Su padre, un exparlamentario que trabajaba como administrador universitario, fue blanco de un asesinato político en el oeste de Oromia.
La región estaba pasando por un período de agitación en ese momento con frecuentes asesinatos.
"Es como si estuvieran celebrando haberlo matado. Fue doloroso", explica.
Ola de violencia
La BBC pudo ver 15 de estas publicaciones, las que según Moti reportó a Facebook con la esperanza de que fueran eliminadas.
Los estándares de la comunidad de Facebook establecen que eliminará "videos y fotos que muestren la muerte violenta de alguien cuando un miembro de la familia solicite su eliminación".
Pero durante más de cuatro años, y después de que Moti dijo que reportó las publicaciones varias veces, estas permanecieron en línea.
Solo se colocó una advertencia de contenido gráfico en algunas de las imágenes.
"A veces me deprimo y no puedo evitar buscar su nombre y revisar las publicaciones. Creo que estoy un poco traumatizado", afirma Moti.
Cuando la BBC le pidió un comentario a la empresa matriz de Facebook, Meta, esta indicó que, si bien las imágenes por sí solas no violaban su política sobre contenido violento y gráfico, eliminaría las publicaciones debido a la solicitud de un miembro de la familia.
Todas las publicaciones que muestran la foto del padre muerto de Moti ahora fueron eliminadas.
Actualmente no existe un mecanismo en el sistema de reportes de Facebook para que los miembros de la familia realicen estas solicitudes, pero Meta le dijo a la BBC que estaba probando un nuevo formulario para poder hacerlo.
Lee también: Detienen a sujeto que se hacía pasar por agente inmobiliario en Nuevo León; rentaba casas abandonadas
"Contenido etíope ignorado"
La preocupación por el volumen de contenido gráfico y discurso de odio que se comparte en las redes sociales etíopes está aumentando.
Este era un problema antes de 2020, pero cuando estalló la guerra en la región norte de Tigray en noviembre de ese año, la cantidad de contenido violento que llegaba a las noticias de la gente se incrementó drásticamente.
En 2021, la Junta de Supervisión de Facebook recomendó que la empresa encargara una investigación independiente específicamente para Etiopía, para revisar cómo se ha utilizado la plataforma para difundir el discurso de odio y aumentar la violencia.
Esta revisión no se ha llevado a cabo.
La BBC le preguntó a Meta sobre esto, y un portavoz destacó una respuesta anterior de la compañía, diciendo que evaluaría la viabilidad de tal revisión, y que anteriormente había llevado a cabo múltiples formas de diligencia debida en derechos humanos relacionadas con Etiopía.
El año pasado se anunció que Meta estaba siendo demandada por dos etíopes que alegaban que el algoritmo de Facebook ayudó a impulsar la propagación viral del odio y la violencia.
Meta respondió diciendo que ha invertido mucho en moderación y tecnología para eliminar el odio.
Pero Rehobot Ayalew, consultora de verificación de hechos con sede en Addis Abeba, cuestiona cuánto están haciendo las empresas de redes sociales para abordar el problema.
"No creo que las plataformas estén prestando tanta atención a Etiopía", le dijo a la BBC.
"Sé que Facebook dice que tiene moderadores que se enfocan en Etiopía, que hablan amárico y tigriña, pero no sabemos cuántos. Y ni siquiera están trabajando desde Etiopía, están trabajando en Kenia".
El impacto de esto, según Rehobot, es que el contenido violento a menudo permanece en línea demasiado tiempo.
"Por lo general, lleva mucho tiempo eliminar una publicación tóxica", afirma.
Lee también: Mona presume millonario regalo de Geros y fans la tunden; "te la compró con lo que te robó"
"Depertando la ira"
Rehobot hace referencia a un video que se compartió ampliamente en marzo de 2022, en el que un hombre de Tigray fue quemado vivo.
"En primer lugar, la inteligencia artificial por sí sola debería haberlo eliminado", explica.
"Luego, incluso después de que se informó, debería haberse eliminado rápidamente, pero permaneció durante algunas horas".
Un portavoz de Meta le dijo a la BBC: "Tenemos reglas estrictas que describen lo que está y no está permitido en Facebook e Instagram. El discurso de odio y la incitación a la violencia están en contra de estas reglas e invertimos mucho en equipos y tecnología para ayudarnos a encontrar y eliminar este contenido".
"Empleamos personal con conocimiento y experiencia local, y continuamos desarrollando nuestras capacidades para detectar contenido infractor en los idiomas más hablados en el país, incluidos amárico, oromo, somalí y tigriña".
Puede surgir algo bueno al llamar la atención del público sobre abusos atroces contra los derechos humanos, pero este tipo de contenido también puede usarse para provocar la ira y culpar a grupos étnicos o individuos específicos.
Mientras tanto, miles, si no millones de etíopes sienten los efectos traumáticos de ver ese contenido.
En noviembre del año pasado se firmó un acuerdo de paz con el objetivo de poner fin a la guerra en Tigray y comenzar a abordar la grave situación humanitaria que ha provocado.
Se estima que el número de personas muertas es de cientos de miles, y la mayoría de esas muertes se deben al hambre y la falta de suministros médicos como resultado de los enfrentamientos.
Mientras tanto, el malestar aún sacude la región de Oromia, que ha visto una creciente rebelión.
Los activistas temen que la reconciliación en estos casos se vea obstaculizada por la violencia publicada en las redes sociales.
"La gente tiende a creer [las publicaciones] y actuar en consecuencia, por lo que las imágenes violentas y destructivas generalizadas seguramente pueden retrasar el proceso de paz y reconciliación", asegura Rehobot.
Moti, quien ahora tiene 23 años, está tratando de seguir adelante con su vida, persiguiendo una carrera como videógrafo y fotógrafo, e incluso está haciendo un documental sobre su propia experiencia.
"Creo que es el momento de contar mi propia historia tratando de defenderme y tal vez, si tengo éxito, pueda lograr un cambio", dice.
Pero afirma que la prevalencia del contenido gráfico le seguirá preocupando hasta que pueda quedar bajo control.
"Cada vez que veo la imagen de un cadáver publicada en internet o en Facebook por la guerra de Etiopía, me siento realmente triste. Alguien más va a sentir lo que yo he sentido. Realmente me pone muy mal".
Suscríbete aquí para recibir directo en tu correo nuestras newsletters sobre noticias del día, opinión y muchas opciones más.
vare