Facebook’un sahibi olan Meta şirketine, sosyal medya devinin algoritmasının Etiyopya iç savaşı sırasında nefret suçlarının ve şiddetin yayılmasına katkıda bulunduğu gerekçesiyle, 2 milyar dolarlık dava açıldı.
Davayı açanlar arasında Facebook paylaşımlarında hedef gösterildikten sonra vurularak öldürülen Etiyopyalı bir akademisyenin oğlu Abrham Meareg de var.
Babası Prof. Meareg Amare Abrha, 3 Kasım 2021’de evine girmek üzereyken sokakta bir grup motosikletli ve silahlı grup tarafından öldürülmüştü.
Saldırganlar, çevredekilerin profesöre yardım etmesini de engellemiş, Abrha silah yaralarıyla yerde yedi saat yattıktan sonra hayatını kaybetmişti.
Davacılar, 2 milyar dolarlık tazminatın yanı sıra şirketin algoritmalarının değiştirilmesini de talep ediyor.
Meta ise nefret içeriklerini kaldırmak için moderatörlere ve teknolojiye büyük yatırım yaptığını vurguladı.
Bir şirket sözcüsü nefret söylemi ve şiddet kışkırtıcılığının platform kurallarına aykırı olduğunu söyledi:
“Etiyopya’daki güvenlik çalışmalarımız yerel sivil toplum kuruluşları ve uluslararası kurumlardan gelen geri bildirimlerden besleniyor.”
Kıtlık benzeri koşullar
Kenya’da açılan dava, Foxglove adlı insan hakları grubu tarafından destekleniyor.
Meta’nın Kenya başkenti Nairobi’de bir içerik moderasyon merkezi bulunuyor.
Etiyopya’da hükümet birlikleri ve Tigray bölgesindeki silahlı güçler arasında yaşanan çatışmalar yüz binlerce kişinin ölümüne yol açarken 400 bin kişinin de kıtlık benzeri koşullarda yaşamasına neden oldu.
Geçen ay sürpriz bir barış anlaşması imzalandı. Fakat o günden bu yana Amhara ve Oromo dillerini konuşan topluluklar arasında etnik cinayetler gerçekleşti.
Prof. Meareg Amare Abrha öldürülmeden önce, Facebook’ta kişisel bilgilerini yazıp onu hedef haline getiren paylaşımlar yapılmıştı.
Bunlar Facebook’un şikayet bildirimi özelliğiyle şikayet edilse de kaldırılmamış veya çok geç kaldırılmıştı.
Paylaşımlardan biri, profesörün öldürülmesinin ardından silinmişti.
Bir diğeri ise 8 Aralık 2022 itibarıyla hâlâ duruyor.
‘Son derece yetersiz’
Meareg “Facebook nefretin yayılmasını engellese ve paylaşımları düzgün bir şekilde denetlese babam bugün hâlâ hayatta olurdu” diyor ve kendi başlarına gelen şeyin başkalarının başına gelmemesini istiyor.
Meareg mahkemeye verdiği ifadede Facebook’un algoritmasının, daha fazla ilgi çektiği için nefret dolu ve kışkırtıcı içerikleri öne çıkardığını söylüyor.
Facebook’un Afrika’daki içerik denetiminin “son derece yetersiz olduğunu”, bölgenin büyük dilleri Amharca, Oromo ve Tigrinya’da az sayıda moderatör bulunduğunu öne sürüyor.
BBC’ye bu konuda bir açıklama yapan Meta ise “Yerel uzmanlığı olan kişileri istihdam ederek farklı dillerdeki şiddet kışkırtıcı içeriklerle mücadele ediyoruz. Buna Amharca, Oromo, Tigrinya ve Somali de dahil” diyor.
Meta, Etiyopya nüfusunun yalnızca yüzde 10’unun Facebook kullanmasına rağmen bu ülkenin öncelikli ülkeler listesinde olduğunu aktarıyor.
Analiz: Peter Mwai, BBC Reality Check, Nairobi/Kenya
Bir sosyal medya şirketinden, Etiyopya’daki çatışmalardaki etkisi nedeniyle hesap sormayı amaçlayan ciddi bir gelişme bu.
Bazıları Meta ve diğer sosyal medya şirketlerinin, çeşitli etnik gruplara yönelik şiddet çağrılarını ve dezenformasyonu engellemek için yeterince çaba sarf etmediğini; bu içeriklerin şikayet edilseler de kaldırılmadıklarını savunuyor.
Bazıları da nefret içeriği denetimine bazı dillerde büyük önem verilirken diğer dillerde bunun önemsenmediğini öne sürüyor.
Meta ise buna öncelik verdiklerini ve yatırım yaptıklarını söylüyor.
Bölgede sıkça konuşulan dillerde moderatörleri var, ayrıca yapay zekayla da denetim yapıyorlar.
Öte yandan Meta, Etiyopya’ya odaklanan moderatörlerin sayısını bugüne kadar hiç açıklamadı.
Bu, Facebook’un Etiyopya’da etnik nefret ve şiddeti körükleyen içeriklere karşı yeterli adım atmadığına dair ilk suçlama değil.
2021’de eski Facebook çalışanı Frances Haugen, ABD Senatosu’nda verdiği ifadede Facebook algoritmasının “etnik şiddeti körüklediği, radikalleşmeyi ve kutuplaşmayı arttırdığını”, çünkü bu tip paylaşımların daha fazla etkileşim çektiğini söylemişti.
Haugen, şirketin pek çok dilde yeterli sayıda moderatörü olmadığını da ifade etmişti.
Davacıların Facebook’tan 2 milyar dolarlık tazminat dışındaki talepleriyse şöyle:
- Algoritmanın kışkırtıcı, nefret dolu ve tehlikeli içerikleri öne çıkarmasına son vermesi.
- Yerel dillerdeki içerik denetiminin, ABD’deki kullanıcılara sunulan seviyeye çekilmesi, bunun için daha fazla moderatör istihdam edilmesi.