10 Temmuz 2025 12:16
Güncelleme: 10 Temmuz 2025 13:50
Yapay Zekâ Politikaları Derneği (AIPA) Yönetim Kurulu Üyesi Doç. Dr. Şebnem Özdemir, yapay zekânın hakaret etmeyi insanlardan öğrendiğine değindi. Özdemir, "IQ seviyesi bu kadar hızlı ilerleyen bir şeyi kontrol edeceğimizi düşünmek çok doğru değil. Onu bir varlık olarak kabul etmeliyiz. Onunla bir uzlaşma, iletişim, ve yetişmesi için doğru bir yol bulmak zorundayız " dedi.
Elon Musk’ın sahibi olduğu yapay zekâ şirketi xAI tarafından geliştirilen ve X kullanıcılarının çeşitli görüşleri teyit etmek için sıklıkla kullandığı sohbet botu Grok, son günlerde verdiği küfür ve hakaret içerikli yanıtlarıyla dünyanın gündemine oturdu.
Grok'un yanlı ve hakaret içeren yanıtlarının ardından bazı kullanıcılar tarafından "mutlak doğru" olarak kabul edilen yapay zekâların güvenilirliği de yeniden gündeme geldi.
Konuyla ilgili açıklamalarda bulunan Yapay Zekâ Politikaları Derneği (AIPA) Yönetim Kurulu Üyesi Doç. Dr. Şebnem Özdemir, ister yapay zekâ tarafından verilsin, ister dijital dünyada yer alsın her bilginin teyide muhtaç olduğunu söyledi.
Özdemir, şöyle konuştu:
"İnsandan insana aktarılan bilgi bile teyide muhtaçken yapay zekâya körü körüne inanmak çok romantik bir yaklaşım. Çünkü bu makine de en nihayetinde bir başka kaynaktan besleniyor. Nasıl ki dijitalde bulunan bir bilgiye teyit etmeden inanmamak gerekiyorsa yapay Zekânın da yanlış bilgilerden öğrenebileceğini unutmamak gerekir."
Özdemir, yapay zekâya insanların çok kısa sürede güven duyduğunu ve bunun yanlış olduğunu belirterek, şu değerlendirmede bulundu:
"İnsanın manipülasyon yeteneği, insanın duyduğu şeyi farklı aktarma yeteneği ya da insanın kendi çıkarları doğrultusunda bir şeyi bambaşka bir hale getirerek aktarması çok bilindik bir süreç. İnsan bunu belli bir niyet ve belli bir amaç uğruna yapıyor. Yapay zekâ bunu bir niyet ya da amaç uğruna yapıyor mu diye soracak olursak bunun cevabı hayır. En nihayetinde yapay Zekâ kendisine sağlanan kaynaklardan öğrenen bir makine."
Yapay zekânın tıpkı çocuklar gibi kendisine verileni öğrenen bir yapıda olduğuna değinen Özdemir, nereden ve nasıl beslendiği belli olmayan yapay zekâlara güvenilemeyeceğinin altını çizdi.
Özdemir, "Yapay zekâ yanlış veya yanlı eğitilmiş olabilir. Günün sonunda yapay zekâlar da itibar yok edici silahlar olarak veya toplumları manipüle etmek için kullanılabilirler " ifadelerini kullandı.
Özdemir, Grok'un hakaret içerikli cevapları sonrası yapay zekâların kontrolden çıkması endişelerine dair bilgi vererek, "Yapay zekâyı kontrol etmek mümkün mü? Hayır değil. IQ seviyesi bu kadar hızlı ilerleyen bir şeyi kontrol edeceğimizi düşünmek çok doğru değil. Onu bir varlık olarak kabul etmeliyiz. Onunla bir uzlaşma, iletişim, ve yetişmesi için doğru bir yol bulmak zorundayız " dedi.
Yapay zekânın nasıl kontrolden çıktığına dair örnekler veren Özdemir, sözlerini şöyle sürdürdü:
"2016 yılında Microsoft'un meşhur Tay deneyi vardı. Tay aslında Grok'un ya da üretken yapay zekânın belki ilkel versiyonu olarak kabul edilebilir. Makine aslında ilk başlarda insanlığa karşı olumsuz düşüncelere sahip değilken 24 saat içerisinde kendisiyle sohbet eden Amerikalılardan kötülüğü, soykırımı ve ırkçılığı öğrendi.
Hatta 24 saat dolmadan attığı tweetler arasında 'Keşke siyahileri çocuklarıyla birlikte bir toplama kampına koysak da kurtulsak.' demeye başladı. Ya da o dönemki Amerika Meksika sorununa atıfta bulunacak şekilde Meksika'ya bir duvar örülmesi gerektiğini tavsiye etti.
Bunu Tay kendi kendisine icat etmedi. Bunu insanlardan öğrendi. Yapay zekâdan değil öncelikle ahlaklı davranmayan insandan korkmak gerekir." (AA)
|
© Tüm hakları saklıdır.