TEKNOLOJİ

Google, Gemini hakkında bilgi verdi

Yapay Zeka Modeli İstenmeyen İstekleri Reddediyor!

Şirketin Bilgi ve Enformasyondan Sorumlu Kıdemli Başkan Yardımcısı Prabhakar Raghavan, yapay zekanın bazı özellikleri hesaba katmada başarısız olduğunu açıkladı. Yapay zeka modeli zamanla daha ihtiyatlı hale gelerek, istenmeyen istemlere yanıt vermemeyi tercih ediyor. Örneğin, siyahi birini oluşturmasını istediğinizde ırkçılığa izin vermemek adına bunu yapmayı reddediyor.

Raghavan, modelin aşırı muhafazakar olmasının, utanç verici ve yanlış sonuçlara yol açmasına neden olduğunu belirtti. Google, yapay zeka sisteminin görsel oluşturma özelliğini, şiddet içeren veya cinsel içerikli görseller oluşturmaması yönünde kodladı.

Ancak, her açıdan güvenilir olması beklenen yapay zeka sistemi ne yazık ki fazla temkinli olabiliyor. Özellikle belirli bir etnik kökene veya cinsiyete sahip olan kişiler için istekleri reddedebiliyor. Kullanıcılar, son zamanlarda beyaz insanlar için talepte bulunan istekler için sonuç üretmeyi reddeden Gemini’den şikayetçi.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu