Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
vivo’nun yeni akıllı telefon serisi vivo S19’un özellikleri sızdırıldı
Büyük teknoloji şirketleri, yapay zeka gelişimini inançlı bir halde ilerletmek için resmi taahhütlerde bulunmak üzere bir ortaya geldi. Güney Kore ve Birleşik Krallık önderleri tarafından düzenlenen sanal bir global toplantıda, OpenAI, Microsoft, Google ve öteki şirketlerin temsilcileri çalışmalarında şeffaflık ve kontrol taahhüdünde bulundular.
On altı şirket, yapay zekanın potansiyel olarak çok büyük olan yararlarını ve berbata kullanılması yahut insanlara ziyan vermesi durumunda ortaya çıkabilecek riskleri kabul etti. Bu görüşmede muahedeye varılan pratik adımlar ortasında güvenlik çerçevelerinin yayınlanması, yönetilemez risklere sahip modellerden kaçınılması ve memleketler arası düzenleyicilerle uyum sağlanması bulunuyordu. Bu kararların temel gayesi, yapay zeka sistemlerinin etik bir biçimde davranmasını ve teknoloji geliştikçe rastgele bir istem dışı ziyandan kaçınılmasını sağlamak olarak belirtiliyor.
Çin ve Orta Doğu’dan Tencent, Meituan, Xiaomi ve Samsung üzere şirketler de batılı teknoloji devlerine katıldı. Araştırmacılar ve mühendisler, kümeleri dezavantajlı duruma düşürebilecek önyargılar yahut öteki meseleler için sistemleri değerlendirecekler. Tüm şirketler, yapay zeka modellerini dikkatle izlemeyi ve devreye almadan evvel riskler konusunda birden fazla perspektif elde etmeyi planlıyor.
ABD, AB, Avustralya ve öteki ülkelerden siyasi başkanlar de bu taahhütleri desteklediler ve gelişmeyi sürdürmek için gelecekte yapılacak toplantılar planladılar. İstekli taahhütler yeterli bir başlangıç olsa da, siyasetçiler vakitle birtakım düzenlemelerin de gerekli olacağını düşünüyorlar.
Atılan bu adım, son vakitlerde yapay zeka güvenliği konusunda tartışmalar yaşayan OpenAI için bilhassa değerli olabilir. OpenAI, geçtiğimiz hafta, yapay zekanın inançlı bir halde davranmasını sağlamak için çalışan “süper uyum” grubunu sonlandırdı.
Kısa bir mühlet evvel OpenAI’nin iki değerli ismi, Ilya Sutskever ve Jan Leike, şirketten ayrılmıştı. Bu ayrılma sonrasında Leike, X üzerinde yaptığı bir paylaşımda, şirketin güvenliğe kâfi kıymeti vermediğini düşündüğü için ayrıldığını söylemiş ve güvenlik grubunun çalışmalarını yürütmek için muhtaçlık duydukları kaynakları almakta zorlandığını belirtmişti.
Daha sonra Sam Altman ve Greg Brockman, Jan Leike’nin yapay zeka güvenliği konusundaki kaygılarına cevap vererek, şirketin “titiz testler, dikkatli değerlendirmeler ve dünya çapında güvenlik önlemleri” ile taahhütte bulunduğunu kamuoyuna açıkladılar.