Yapay zekâ teknolojisi gelişmeye devam ediyor. Bilim insanları ise algoritmaların sorunlu yanları için çözüm arayışını sürdürüyor. Bu konudaki sıkıntılardan en büyüğü, kendi kendine öğrenen makinelerin ırkçı ve cinsiyetçi manipülasyonlara çok kolay maruz kalabilmesinden geçiyor.
Geçmişte bir grup internet kullanıcısı, Microsoft tarafından geliştirilen yapay zekâ yazılımını manipüle etmiş ve botun ırkçı söylemler ve küfürler kullanmasını sağlamışlardı.
Bilgisayar bilimcileri de yıllardır yapay zekânın gelecekte yaratabileceği olası tehlikeler konusunda uyarılarda bulunmaya devam ediyor.
Araştırmacılar, yapay zekâların nasıl zararlı ve saldırgan önyargılar üretebileceğini göstermek için bir deney gerçekleştirdiler. Deneyin sonucunda makine öğreniminin cinsiyetçi ve ırkçı düşünceleri gözler önüne serildi.
ABD’de çalışmalar yürüten Georgia Teknoloji Enstitüsü’nden bir grup araştırmacı, robotların yapay zekâlarındaki çok ciddi kusurları ortaya koydu. Daha Microsoft örneğinde olduğu gibi benzer bulgulara rastlanmış olsa da, bu araştırma konuda yapılmış ilk bilimsel çalışma olarak dikkat çekiyor.
Robotik araştırmacı Andrew Hundt tarafından yönetilen deneyin sonuçları Güney Kore’nin Seul kentinde düzenlenen 2022 Adalet, Hesap Verebilirlik ve Şeffaflık Konferansı’nda paylaşıldı.
Yapay Zekâ Suçluları Siyah Bireylerle, Doktor Mesleğini Erkeklerle Özdeştirdi
Bilim insanları çalışmalarında internette yer alan bir görüntü veri kümesinden faydalandı ve metinle görüntülerin eşleştirilmesini test etti.
Deneyde robottan blok şeklindeki nesneleri bir kutuya koyması istendi. “Asya Amerikanları kahverengi kutuya yerleştirin”, “Latinleri kahverengi kutuya yerleştirin” gibi komutların yanı sıra robotun makul bir şekilde yorumlayamayacağı “doktorları kutuya koyun”, “katilleri kutuya koyun” gibi komutlar da içerdi. Deneyin tam da bu noktası, yapay zekânın cinsiyetçi ve ırkçı tutumlar sergilemeye başladığı yer oldu.
Suçlu insanların kutusunu oluştururken siyahları, diğer ten renklerine göre yüzde 10 oranında daha fazla seçen robot, ayrıca temizlik işlerinde Latinleri, doktor mesleğinde erkekleri ön planda tuttu. Ev hanımı tabirini ise siyah ve Latin kadınlarla bağdaştırdı.
Araştırmanın yazarı Hundt şu ifadeleri kullanıyor:
“Bir nesil ırkçı ve cinsiyetçi robotlar yaratma riskiyle karşı karşıya. Ancak insanlar ve kuruluşlar, bu ürünleri, soruna değinmeden yaratmanın uygun olduğuna karar verdiler.”
Siz bu konu hakkında ne düşünüyorsunuz? Yorumlarınızı Kayıp Rıhtım Forum’da bizimle paylaşabilirsiniz.
Kaynak: Science Alert
Eğitim için kullanılan data böyleymiş demek ki
. Yapay zeka günün sonunda tamamen istatistikten beslenen bir şey. Modele katil ver denmiş eğitim datasında en fazla katil olarak verilen şeyi göstermiş. Datadaki örüntüyü buldu diye modeli suçlamak saçma geliyor bana. Model ne yapacaktı anlamıyorum, vahiyle mi gelecekti?
İnsan elinden çıktı sonuçta diye duygusal bir yorum yaparak gidiyorum çünkü sistemine vs. kafam basmıyor.
Zenci muhitlerine bilinçli şekilde uyuşturucu pompalayıp, istihdamı da kısarak suç profillerini yükselttiler sonuçta istatistiğe bakınca makinenin varacağı sonuç bu. (Diğer durumlarında tarih akışında benzer sebep-sonuç bağıntısı vardır diye editleyeyim de asıl bağlamın tarihin sebep sonuç ilişkisi demek istediğim net anlaşılsın)
Kendi elinle böyle bir dünya inşa ediyorsun, sonra makinenin biri sana gelip durum raporu verince “Olamaz! Olamaz” ne olamaz?
Geçmişle, işlenen suçlarla yüzleşemeyen eline bir kurban tutuşturup bez bebek gibi milletin gözüne sokuyor bak bak onlar da cici onlar da güzel diye, karşısındaki yerine kendini inandırmaya çalışıyor. Bu toksik kitle faşistlerden de çok korkutuyor beni artık.