DOLAR 32,3200 0.2%
EURO 35,0983 -0.16%
ALTIN 2.308,531,37
BITCOIN %
İstanbul
16°

AÇIK

KALAN SÜRE

Facebook’tan bir yalan daha!

Facebook’tan bir yalan daha!

ABONE OL
25 Ekim 2022 15:42
Facebook’tan bir yalan daha!
0

BEĞENDİM

ABONE OL

Facebook’ta sular durulmuyor. Sosyal medya platformunun eski çalışanlarından yeni iddialar ortaya atılırken, platform içindeki araştırmalar da basına sızmaya devam ediyor.

Son olarak Wall Street Journal’ın haberine göre şirket içerisindeki bir araştırma platformun, nefret söylemi ve şiddet içeren gönderileri engellemek için kullandığı yapay zekânın çalışmadığını ortaya koyuyor.

Wall Street Journal’ın haberine göre; Facebook üst düzey mühendisleri, şirketin otomatik sisteminin platformda görüntülenen ve kuralları ihlal eden nefret söyleminin yalnızca yüzde 2’sini kaldırdığını söylüyor. Başka bir Facebook çalışan grubu da benzer bir sonuca varıyor ve Facebook’un yapay zekâsının platformda yer alan nefret söyleminin yalnızca yüzde 3 ila yüzde 5’ini ve Facebook’un şiddet kurallarını ihlal eden içeriğin de yüzde 0,6’sını kaldırdığını söylüyor.

ZUCKERBERG 2020’DEN ÖNCE ZARARLI İÇERİK KALDIRILACAK DEMİŞTİ

Wall Street Journal’a göre Facebook CEO’su Mark Zuckerberg, Facebook’un yapay zekâsının 2020’den önce sorunlu içeriğin büyük çoğunluğunu kaldırabileceğine inandığını söylemişti. Ve Facebook da platformdaki nefret söyleminin ve şiddet içeren içeriğin çoğunun, kullanıcılar daha görmeden yapay zekâsı tarafından kaldırıldığını iddia ediyor. Hatta Facebook’un bu yıl şubat ayında paylaştığı rapora göre; yapay zekâsının tespit oranı yüzde 97’nin üzerinde.

VERİLER TUTARSIZ

Ancak yayınlanan habere göre; sivil haklar örgütleri ve akademisyenlerden oluşan bazı gruplar, sosyal medya platformunun bildirdiği oranlar dışarıdan yapılan araştırmalarla eşleşmediği için Facebook’un istatistiklerine şüpheyle yaklaşıyor.

Medeni haklar grubu Color of Change’in başkanı Rashad Robinson, Journal’a “Çalışmalarını asla göstermeyecekler” diyor.

Facebook’tan Guy Rosen, ise Wall Street Journal’a, incelediği belgelerin güncel olmadığını belirtirken Facebook’ta nefret söyleminin nasıl azaldığına bakmanın daha önemli olduğunu söyledi.

YAPAY ZEKÂSINA VE ALGORİTMALARA FAZLA GÜVENİYOR

Araştırma, eski Facebook çalışanı Frances Haugen’in geçen hafta kongre ile sosyal medya platformunun yapay zekâ ve algoritmalara çok fazla güvendiğini tartıştıktan sonra geldi. Haugen, Facebook’un kullanıcılarına dayattığı içeriğin genellikle yanlış bilgi içeren öfkeli, bölücü, sansasyonel gönderiler olduğunu söyledi.

Facebook’un algoritmaları bazen neyin nefret söylemi, neyin şiddet olduğunu belirlemede sorun yaşayabiliyor ve bu da zararlı videoların ve gönderilerin platformda çok uzun süre kalmasına neden oluyor. Facebook, Ekim 2020’den Aralık 2020’ye kadar yaklaşık 6,7 milyon organize nefret içeriğini platformlarından kaldırdığını iddia etmişti.

En az 10 karakter gerekli


HIZLI YORUM YAP

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.