Sosyal paylaşım sitesi Facebook, “terörle bağlantılı içerikleri” kaldırma yolunda attığı adımları açıkladı.

Facebook bir süredir, hükümet tarafından “terör propagandası” yapan içerikleri kaldırması konusunda baskı altındaydı.

Sosyal paylaşım sitesinin üst düzey yönetiminin yazdığı blog yazılara ve BBC’ye verdiği mülakata göre, şirketin kullanıcılarına bu konuda daha açık davranmak istediği anlaşılıyor.

Facebook, BBC’ye “terörizmle ilgili” fotoğraf, video ve yazılar ile sahte hesap ağlarını yakalamak için yapay zeka kullandığını açıkladı.

Açıklamada, “Terörle bağlantılı içeriği hemen, topluluğumuzdaki insanlar daha bunu görmeden bulmak istiyoruz” ifadeleri yer aldı.

Güvenli yer yok

Irak Şam İslam Devleti (IŞİD) örgütünün eleman toplama ve radikalleştirme amacıyla teknolojiyi kullanabilmesi, büyük şirketler için de yeni sıkıntıların doğmasına neden oldu.

Bu şirketler, radikal ideolojilerin yayılmasını sağlayan ve insanları şiddet eylemlerine teşvik eden bir platform sundukları eleştirileriyle karşı karşıya kaldı.

Hükümetler geçen aylarda bu konuda daha fazla adım atılması için baskı uyguluyorlardı ve Avrupa çapında bir yasama ve düzenleme yapılması gündeme getirildi.

Hafta başında İngiltere Başbakanı Theresa May ve Fransa Cumhurbaşkanı Emmanuel Macron, internetin teröristler ve suçlular için güvenli bir alan oluşturmaması için kampanya başlattı.

Konuştukları konular arasında belirli içerikleri uzaklaştırmada başarısız olan teknoloji şirketlerine para cezası uygulanması da var.

Facebook ise bu içerikle mücadele etmeye kararlı olduğunu vurguluyor.

Küresel politikalar idaresi başkanı Monika Bickert, “Terör örgütlerinin istenmediği bir ortam oluşmasını sağlamak için neler yaptığımız konusunda topluluğumuza çok açık olmak istiyoruz” dedi.

İngiliz güvenlik yetkililerinin şirketlere getirdiği eleştirilerden biri, radikal içerikli bir paylaşımla ilgili kendileri adım atmadan önce kullanıcıların şikayet etmesini beklemek.

Facebook, kullanıcıların şikayet ettiği içerikleri gözden geçirmek için 3 bin kişiyi işe alacaklarını açıklamıştı.

Şirket şimdiye kadar terörizmi destekledikleri gerekçesiyle kapattıkları hesapların yarısından fazlasını kendilerinin bulduklarını söylüyor.

Ayrıca daha hızlı eyleme geçebilmek için yeni nesil teknolojiyi kullanmaya başladıklarını da belirtiyor.

“Facebook’ta terörizm içerikli paylaşımların yayılmasını engellemek için teknolojiyi daha iyi kullanabileceğimizi biliyoruz – özellikle de yapay zekayı” diyor.

Otomatik analiz

Yeni teknolojinin bir ayağı görselleri eşleştirme.

Biri “terörizm içerikli”bir fotoğraf ya da video yüklemek isterse, sistem öncelikle bu içeriğin daha önce bilinen radikal içeriklerle eşleşip eşleşmediğine bakıyor ve ilk aşamada engelleme şansı buluyor.

Yapay zeka aracılığıyla incelenen bir diğer konu da yazılı metinler.

Örneğin IŞİD’i desteklediği gerekçesiyle kaldırılan bir yazının analiz edilmesiyle, şüphelenilen yazının benzer bir terör propagandası içerikli işaretler taşıyıp taşımadığına bakılıyor.

Yapay zekanın gelişmesiyle birlikte, bu sürecin de zaman içerisinde gelişmesi bekleniyor.

Facebook’un kullandığı teknikler arasında, bir hesabın arkadaş listesindeki kişilerin büyük çoğunluğunun “terörizme destek” nedeniyle kapatılıp kapatılmadığına bakılması da var.

Facebook ayrıca sürekli olarak “terörle bağlantılı içerikler” paylaşmak için hesap açan kişilerin hızına yetişmek için de yeni yollar deniyor.

Bickert, “İnternetteki terör tehdidi büyüdüğü gibi teknolojimiz de büyüyecek” diyor.

Facebook, şirkette terörle mücadele üzerine çalışan aralarında eski savcılar, polisler, analistler ve mühendislerin de olduğu 150 kişinin olduğunu söylüyor.

Şirketi eleştirenler ise iki milyar kullanıcısı olan sitenin içerikten milyarlarca dolar para kazandığını ve sorunla başa çıkabilmek için daha fazla kaynak ayırabileceğini belirtiyor.