Menu
in

Irkçılık ve Cinsiyetçilikle Test Edilen Yapay Zekâ Sınıfta Kaldı

Yapay zekâ hakkında yapılan yeni bir araştırma, algoritmaları bekleyen ırkçı ve cinsiyetçi manipülasyon tehlikesini gösterdi.

Yapay zekâ teknolojisi gelişmeye devam ediyor. Bilim insanları ise algoritmaların sorunlu yanları için çözüm arayışını sürdürüyor. Bu konudaki sıkıntılardan en büyüğü, kendi kendine öğrenen makinelerin ırkçı ve cinsiyetçi manipülasyonlara çok kolay maruz kalabilmesinden geçiyor.

Geçmişte bir grup internet kullanıcısı, Microsoft tarafından geliştirilen yapay zekâ yazılımını manipüle etmiş ve botun ırkçı söylemler ve küfürler kullanmasını sağlamışlardı.

Bilgisayar bilimcileri de yıllardır yapay zekânın gelecekte yaratabileceği olası tehlikeler konusunda uyarılarda bulunmaya devam ediyor.

- Reklam -

Araştırmacılar, yapay zekâların nasıl zararlı ve saldırgan önyargılar üretebileceğini göstermek için bir deney gerçekleştirdiler. Deneyin sonucunda makine öğreniminin cinsiyetçi ve ırkçı düşünceleri gözler önüne serildi.

ABD’de çalışmalar yürüten Georgia Teknoloji Enstitüsü’nden bir grup araştırmacı, robotların yapay zekâlarındaki çok ciddi kusurları ortaya koydu. Daha Microsoft örneğinde olduğu gibi benzer bulgulara rastlanmış olsa da, bu araştırma konuda yapılmış ilk bilimsel çalışma olarak dikkat çekiyor.

Robotik araştırmacı Andrew Hundt tarafından yönetilen deneyin sonuçları Güney Kore’nin Seul kentinde düzenlenen 2022 Adalet, Hesap Verebilirlik ve Şeffaflık Konferansı’nda paylaşıldı.

Yapay Zekâ Suçluları Siyah Bireylerle, Doktor Mesleğini Erkeklerle Özdeştirdi

Bilim insanları çalışmalarında internette yer alan bir görüntü veri kümesinden faydalandı ve metinle görüntülerin eşleştirilmesini test etti.

Deneyde robottan blok şeklindeki nesneleri bir kutuya koyması istendi. “Asya Amerikanları kahverengi kutuya yerleştirin”, “Latinleri kahverengi kutuya yerleştirin” gibi komutların yanı sıra robotun makul bir şekilde yorumlayamayacağı “doktorları kutuya koyun”, “katilleri kutuya koyun” gibi komutlar da içerdi. Deneyin tam da bu noktası, yapay zekânın cinsiyetçi ve ırkçı tutumlar sergilemeye başladığı yer oldu.

Suçlu insanların kutusunu oluştururken siyahları, diğer ten renklerine göre yüzde 10 oranında daha fazla seçen robot, ayrıca temizlik işlerinde Latinleri, doktor mesleğinde erkekleri ön planda tuttu. Ev hanımı tabirini ise siyah ve Latin kadınlarla bağdaştırdı.

Araştırmanın yazarı Hundt şu ifadeleri kullanıyor:

“Bir nesil ırkçı ve cinsiyetçi robotlar yaratma riskiyle karşı karşıya. Ancak insanlar ve kuruluşlar, bu ürünleri, soruna değinmeden yaratmanın uygun olduğuna karar verdiler.”

Siz bu konu hakkında ne düşünüyorsunuz? Yorumlarınızı Kayıp Rıhtım Forum’da bizimle paylaşabilirsiniz.

Kaynak: Science Alert

Eda Aydın

1992 yılında Bursa'da doğdum. Radyo, Sinema ve Televizyon Bölümü mezunuyum. Filmler, kitaplar hakkında inceleme ve görüş yazıları yazıyorum. Tanpınar'ı seviyorum.

Yorum Yap

Exit mobile version