Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Nintendo, Yapay Zekâ ile Üretilen Mario İçeriklerini Yapay Zekâ ile Kaldırtıyor Olabilir
Yapay zekâ, bilindiği üzere, insanların duymak istediklerini söylemeye eğilimli ve bu emelle sık sık palavra da söyleyebiliyor. Bu duruma da “halüsinasyon” ismi veriliyor. Yapay zekâ sık sık olmayan akademik çalışmalara atıf yapıyor, kullanıcıları ikna etmeye çalışıyor. Bu durum da ciddi sorunlara neden olabiliyor.
Microsoft, bu sorunu çözeceğini düşündüğü “Correction” adlı aracını yayımladı. Elbette ki bu sorunun çözülmesi için bir adım atılmış olması hoş lakin uzmanlar, kuşkucu yaklaşımın devam etmesi gerektiğini belirtiyor. Özelliğin ayrıntılarını incelediğimizde uzmanların haklı olabileceklerini görüyoruz.
“Hata yapabilen” doğrulama aracı
Microsoft’un Azure AI İçerik Güvenlik API‘sinin bir modülü olarak gelen aracın birinci sorunu “hata yapabilecek olması” oldu. Bu araç, yapay zekânın içeriğindeki bilgileri birincil kaynaklardan sorgulamak yerine açıklamalar, savlar üzere kaynaklardan alıyor. Yeni özellik, Meta’nın Llama ve OpenAI’ın GPT-4o modelleri ile birlikte de kullanılabilecek.
Konuyla ilgili bir açıklama yapan Microsoft, “Correction, küçük lisan modellerini ve büyük lisan modellerini kullanarak çıktıları temel evraklarla hizalandırma sürecine dayanıyor,” derken, bu yeni özelliğin bilhassa tıp üzere alanlarda üretken yapay zekâ kullanıcılarını ve geliştiricileri desteklemesini umduklarını da kelamlarına ekledi.
Google da benzeri bir aracı kendi yapay zekâ geliştirme platformu Vertex AI’a getirmişti. Uzmanlar ise halüsinasyonları engellemenin “sudan hidrojeni çıkarmak üzere olduğunu” söz etmiş ve yapay zekâ teknolojisi için halüsinasyonların zarurî olduğunu belirtmişti.