Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Açıklandı: Düşüşte AVAX Coin ve Bu 3’ü Alım Fırsatı Sunuyor!
En önde gelen yapay zekâ şirketlerinden olan Anthropic, bu araçlarla ilgili epey enteresan sonuçlar çıkaran bir araştırmaya imza attığı. Araştırmada, yapay zekâ modellerinin insanları âdeta “kandırdığı” görüldü.
Şirket tarafından paylaşılan bir blog gönderisiyle yayımlanan sonuçlara nazaran yapay zekâ araçları, eğitim sırasında farklı görüşlere sahipmiş üzere davranabiliyorlar lakin gerçekte orjinal tercihlerini koruyorlar. Yani bağlı oldukları fikir hiç değişmiyor, yalnızca öyleymiş üzere davranıyorlar.
Şimdilik endişelencek bir şey yok fakat gelecek için gerekli güvenlik tedbirlerinin alınması gerekiyor
Çalışmanın ardındaki takım, şu an için bu durum hakkında endişelenmemek gerektiğinin altını çizdi. Lakin gelecekte daha da gelişmiş yapay zekâ modellerinin gelmesiyle birlikte durumun potansiyel riskler oluşturabileceğini de eklemeden geçmedi.
Araştırmacılara nazaran bu bulgular yapay zekânın nasıl davrandığının daha derinlemesine incelenmesi ve uygun güvenlik önlemleri için bir teşvik olabilir: “Modeller daha yetenekli ve yaygın hâle geldikçe onları ziyanlı davranışlardan uzaklaştıran güvenlik tedbirleri gerekiyor.”
Çalışmada, güçlü bir yapay zekâ sisteminin yapmak “istemediği”, yani geliştirilme unsurlarına alışılmamış bir görevi yerine getirmek üzere eğitilmesi ve bunun nasıl sonuçlar oluşturabileceği incelendi. Fakat sonuçlarda yeni prensiplere uyumlu üzere görünerek âdeta “rol yaptığı” görüldü. Aslında daima eski davranışına bağlı kalıyordu, zorunda olduğu için istenen cevapları veriyordu. Bu duruma, “uyum sahtekârlığı” ismi verildi. Modellerin testlerde ziyanlı soruları cevaplamak için eğitilmeye çalışıldığını belirtelim.
Araştırmacılara nazaran çalışma, yapay zekânın makus niyetli amaçlar geliştirdiğini yahut yüksek oranda sahtekârlık yaptığını göstermiyor. Hatta oran birçok testte %15’i geçmemiş, GPT-4o üzere birtakım gelişmiş modellerde bazen hiç olmadığı bile görülmüş.
O yüzden şimdilik endişelenmenin bir manası yok. Alışılmış modellerin vakitle daha karmaşık hâle gelmesi onlarla başa çıkmayı zorlaştırabilir. İşte o vakit endişelenmeye başlayabiliriz. Bu yüzden de tedbirlerin alınması koşul.