Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
CANLI: FED Lideri Konuşuyor! Bitcoin ve Altın İçin Dikkat!
Her gün ismini daha fazla duyduğumuz üretken yapay zekâ araçları, hepimizi şaşırtan gelişimiyle tüm teknoloji dünyasını ele geçirmişti. Lakin bu modellerin, ziyanlı içeriklerden bilgi güvenliği konusuna kadar taşıdığı çeşitli riskler konusunda büyük kaygılar vardı.
İşte bu mevzuda değerli bir atılım, teknoloji devlerinden geldi. Yapay zekâ alanında önde gelen Microsoft, OpenAI, Google ve Antrhopic; “Frontier Model Forum” ismini verdikleri bir küme kurdu.
Grup, üretken yapay zekânın inançlı ve sorumlu gelişimini sağlamayı hedefleyecek
Dört şirketten oluşan küme, üretken yapay zekâ modellerinin inançlı ve sorumlu bir biçimde gelişmesinden emin olmak istiyor. Öncelik verilecek modellerin ise, “mevcut en gelişmiş modellerde mevcut olan yetenekleri aşan ve çeşitli misyonları gerçekleştirebilen büyük akine tahsil modelleri” olacağı belirtiliyor.
Şirketler tarafından paylaşılan blog gönderilerinde, yeni güvenlik kümesinin dört ana amacı olacağı belirtildi. Bu amaçlar, şu formda sıralandı:
Frontier Model Forum, yapay zekâ konusunda teklifler sunacak, şirketler ve hükümetlerle bilgiler paylaşabilecek bir müşavere şurası kurarak çalışmalarına başlayacak. Ayrıyeten kümenin teknoloji dünyasını bir ortaya getirmek istediğini de belirtelim. Açıklamada, yapay zekâ güvenliği konusunda adım atmaya çalışan öteki şirketlere kapılarının açık olduğu belirtiliyor.