Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Realme C51 sertifikasyon sürecinde görüldü
Üretken yapay zekâ yarışında önde gelen şirketlerden biri olmayı amaçlayan Google, birkaç ay evvel ChatGPT rakibi sohbet botu Bard’ı tanıtmıştı. Vakitle gelişen bu yapay zekâ aracı, istediğiniz her soruya cevap verebiliyordu. Şirket, yakın vakitte gerçekleştirilen I/O etkinliğinde Bard’a gelecek tüm özellikleri de açıklamıştı.
Şimdi ise Reuters tarafından paylaşılan bir rapor, Google’ın çatı şirketi Alphabet’in çalışanları için bir siyaseti olduğunu ortaya çıkardı. Buna nazaran teknoloji devi, çalışanlarının piyasadaki sohbet botlarına karşı dikkatli olmasını istiyor. Buna kendi sohbet botu Bard da dahil.
Google, sızıntı ihtimali nedeniyle hassas bilgilerin sohbet botlarıyla paylaşılmasını istemiyor
Konuya ait kaynaklara dayandırılan habere nazaran Alphabet, çalışanlarının OpenAI’ın ChatGPT’si yahut kendi sohbet botu Bard üzere modellerle saklı bilgi paylaşılmamasını tavsiye ediyor. Bunun nedeni ise sızıntı riski.
Şirket, çalışanlarının hassas bilgiler girmesini istemiyor; zira kullanıcıların bu bilgileri görüntüleme ihtimali bulunuyor. Öte yandan sohbet botları, girdileri kendilerini eğitmek için de kullanabiliyor. Bu da başka bir risk oluşturuyor Google’dan hususa ait rastgele bir resmi açıklamada bulunmadı.
Birçok teknoloji devi zımnilik telaşları nedeniyle çalışanlarının yapay zekâ araçlarını kullanmasını yasaklıyor
Bunun haklı bir telaş olduğunu söylemek mümkün. Bir öteki teknoloji devi Samsung, geçtiğimiz ay bir bilgi sızıntısı yaşadığını açıklamıştı. Bu sızıntı, Samsung çalışanlarının ChatGPT’yi kullanmasının akabinde gelmişti. Güney Koreli şirket, yaşananların ardından de çalışanlarının ChatGPT’yi kullanmasını yasaklamıştı.
Öte yandan Amazon’dan bir avukat da bu yılın başlarında çalışanlara ChatGPT’yle hassas bilgi paylaşılmaması davetinde bulunmuştu. Birebir formda mayıs ayında Apple’ın da çalışanlarının ChatGPT, Bard ve GitHub’ın Copilot aracı üzere modelleri kullanmasını saklılık nedeniyle yasakladığı ortaya çıkmıştı. Natürel Apple’ın kararında saklılığa ek olarak kendi yapay zekâ teknolojileri geliştirmesinin tesiri olabileceği de belirtilmişti.