Description: Facebook's system involving algorithmic content moderation for East African languages was reportedly failing to identify violating content on the platform such as mistakenly classifying non-terrorist content.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Facebook, perjudicó a Facebook users speaking East African languages y Facebook users in East Africa.
Estadísticas de incidentes
ID
392
Cantidad de informes
2
Fecha del Incidente
2015-06-01
Editores
Khoa Lam
Informes del Incidente
Cronología de Informes
isdglobal.org · 2022
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Resumen ejecutivo
El ecosistema de apoyo a Harakaat al-Shabaab al-Mujahideen (al-Shabaab) y el Estado Islámico en África se extiende a través de la web abierta, las aplicaciones de mensajería encriptada, las plataformas de nicho y directame…
apnews.com · 2022
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
NAIROBI, Kenia (AP) — Un nuevo estudio encontró que Facebook no logró captar el contenido extremista del grupo Estado Islámico y al-Shabab en publicaciones dirigidas al este de África, mientras la región sigue bajo la amenaza de ataques vio…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.