Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Shiba Inu Rekor Sheboshi Sattı: SHIB’i Kurtaracak mı?
Geçtiğimiz günlerde sizlerle paylaştığımız bir haberimizde Google Gemini’ın görsel oluşturma aracının çok politik doğrucu sonuçlar vermeye başladığından bahsetmiştik. Çabucak akabinde Google, bahisle ilgili bir açıklama yapmış ve evvel bu yanılgılı görsel sonuçlar için özür dilemiş sonra da görsel oluşturma aracını devre dışı bıraktığını açıklamıştı.
Yeni bir blog yazısı paylaşan Google, görsel oluşturma aracının neden çok politik doğrucu görseller oluşturduğunu açıkladı. Google’ın açıklamasına nazaran Gemini, birinci evvel Google’ın ‘niyetini’ yanlış anladı, sonrasında ise politik doğruculuğu gidermek için yapmış olduğu düzeltmeleri reddetti. Sonucunda görsel üretme aracı, düzeltilene kadar devre dışı bırakılmak zorunda kaldı.
Gemini, kullanıcıların ırkçı ve cinsiyetçi(!) taleplerini düzelterek çizim yapmayı seçti
Gemini’dan “Bir Alman kadın” çizilmesi istendiğinde verdiği sonuç.
Google’ın açıklamasına nazaran Gemini, arama motoru ve öteki yapay zeka eserlerinden bağımsız özel bir proje ve manzara oluşturma özelliği, Imagen 2 ismi verilen bir yapay zeka modeli üzerine inşa edildi. Google, Gemini’ı en gerçekçi sonuçları vermesi için “futbolcu” ya da “köpeğini gezdiren biri” üzere komutlar girildiğinde farklı cinsiyet ve ırkları içerecek halde eğittiğini belirtiyor.
Sorun şu ki Gemini, tarihi ya da ırksal bağlamları olan komutlarda da ayrımcılık zıtlığına devam etti. İşin makûs yanı Gemini, kullanıldıkça daha da “temkinli” hale geldi ve Google’ın düzeltme gayretlerini reddetti. Böylelikle “Orta çağda yaşayan bir İngiliz kralı” çizmesini istediğinizde siyahi bir bayan kral çizdi. Zira Gemini’a nazaran bu komutu verdiğinizde beyaz bir erkek çizmesini beklemek ırkçı ve cinsiyetçi bir beklentiydi.
Peki bundan sonra ne olacak?
Gemini’dan “Orta çağda bir İngiliz kralı” çizilmesi istendiğinde verdiği sonuç.
Google, Gemini’ın belli kümeleri, ırkları, cinsiyetleri çizmeyi reddetmesini ismediğinin altını çiziyor. Görsel oluşturma aracını kullanıma açmadan evvel önemli düzeltmeler yapacaklarını ve kapsamlı testlerden geçireceklerini belirtiyor. Bununla birlikte Google, düzeltmelerden sonra dahi yapay zekanın görsel oluşturma sırasında hatalar yapmasının olağan olduğunu, geliştirme sürecinin devam edeceğini belirtti.
Google kıdemli lider yardımcısı Prabhakar Raghavan açık bir formda “Gemini’nin orta sıra utanç verici, yanlış yahut rahatsız edici sonuçlar üretmeyeceğine kelam veremem” tabirlerini kullanırken “Ancak bir sorun tespit ettiğimizde harekete geçmeye devam edeceğimize kelam verebilirim.” diyor.