Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Bir Günde Yüzde 73 Artış! Takip Edilmesi Gereken 3 Meme Coin
İnternette gezinirken bir sürü bilgiye denk geliyoruz. Pekala bu bilgilerin hepsi yanlışsız mu? Değil natürel. Biz bile vakit zaman geçersiz haberlere, algı oluşturmaya yönelik istatistiklere ya da kulaktan dolma şeylere inanabiliyorsak, yapay zekâ bu işi nasıl hallediyor? Gerçekle palavrası tam olarak nasıl ayırt ediyor?
Cevap kolay değil ancak değerli zira artık yapay zekâ hayatımızın içinde. Yeri geliyor ona soruyoruz, yeri geliyor fikir alıyoruz. Peki ya ne kadar güveniyoruz? Bu içeriğimizde yapay zekâ bilgileri nasıl ayırt ediyor ve neleri dikkate alıyor bunlara bakacağız.
Anlamıyor lakin tahlil ediyor
Önce şunu netleştirelim… Yapay zekâ bir bilgiyi görüp “hmm bu mantıklı” demez. Yani bizim üzere anlamaz. Onun yaptığı şey büsbütün kuramsal. Hangi söz hangisinden sonra daha mantıklı gelir, hangi cümle daha evvel nerelerde geçmiş üzere şeylere bakar.
Kısacası bilgiyi kıymetlendiriyor fakat bizim üzere hissederek ya da sezerek değil. Elindeki dev bilgi yığınında, bir bilginin ne kadar yaygın olduğuna, nerelerde geçtiğine ve hangi kaynaklardan geldiğine nazaran karar veriyor.
Dil modellerinin kökenine inelim…
Sohbet ettiğiniz yapay zekâlar (mesela ChatGPT gibi) aslında devasa lisan modellerinden ibaret. Yani onlara milyonlarca metin okutulmuş ve hangi sözün, hangi cümleyle daha güzel gittiğini öğrenmişler.
Bu modellerin olayı, verilen bir soruya insan üzere karşılık vermek fakat verdiği karşılık aslında bir kestirimden ibaret. O yüzden kulağa çok yanlışsız üzere gelen bir bilginin aslında yanlış olabileceğini unutmamak gerekir. Zira modelin temeldeki emeli sizi etkilemektir.
Güvenilir olarak baz aldığı kaynaklar da yok değil
Yapay zekâ eğitilirken kimi kaynaklara daha çok güvenebileceğini öğreniyor.
Bu biçim kaynaklardan gelen bilgileri genelde yanlışsız olarak ele alıyor zira bunlar nizamlı olarak denetim edilen, düzeltme yapılan ve “ciddiye alınan” yerler. Yapay zekâ da haliyle buralardan gelen bilgiye daha fazla tartı veriyor.
Peki bir bilgi her yerde varsa “doğru” mudur?
İşte burası kritik. Bir bilgi çok yaygınsa yapay zekâ bunu kıymetli bir sinyal olarak alıyor ancak her yerde olması her vakit yanlışsız olduğu manasına gelmez. Bilhassa toplumsal medyada bir saçmalık milyonlarca kere paylaşılmış olabilir. Bu, onun hakikat olduğu manasına gelmez.
Tabii yapay zekâ bunu fark edecek biçimde eğitilmemişse o bilgiyi “doğru” olarak ele alabilir. Âlâ ile makus yapay zekâları birbirinden ayrıştıran da bu bahislerdeki başarısıdır.
Bilginin doğruluğuna karar verdiği süreç nasıl işliyor?
Yapay zekâ bilgileri şöyle pahalandırıyor diyebiliriz:
Bu kriterlere nazaran bilgileri “daha güvenilir” yahut “şüpheli” olarak pahalandırıyor lakin her ne olursa olsun yapay zekâları hiçbir vakit %100 sağlam olarak ele alamayız -ki bu bahiste her yapay zekâ botu tekraren sefer kullanıcıları uyarmakta ve edindiğiniz çıktıları iki kere denetim etmenizi söylemekte-.
Günün sonunda iş tekrar bizde bitiyor
Ne kadar gelişmiş olursa olsun, yapay zekâ hâlâ insan zekâsının yerini tam olarak alamıyor. Onun için “gerçek” olan şey, bilgilerde en çok geçen, en muteber kaynaklardan alınan şeydir. Zira her şey dataya dayanıyor; mantığa, bağlama ya da sezgiye değil.
Tabii bundan yıllar evvel yapay zekânın bugün geleceği noktayı kavrayamayacağımız üzere gelecek yıllarda ne derece gelişeceğini de kestirmemiz güç. Hatta “sentetik zekâ” denilen şey de nispeten bu tip açıkları kapatmayı amaçlıyor lakin bu da bir öbür içeriğin konusu diyelim.
Yapay zekâ ile ilgili öteki içeriklerimize de göz atabilirsiniz: