DOLAR

32,6645$% 0.32

EURO

35,5639% 0.42

GRAM ALTIN

2.509,16%1,72

ÇEYREK ALTIN

4.049,00%1,37

TAM ALTIN

16.220,00%1,37

ONS

2.390,92%1,48

BİST100

10.851,78%-0,19

İkindi Vakti a 17:11
Bursa AÇIK 24°
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Amasya
  • Ankara
  • Antalya
  • Artvin
  • Aydın
  • Balıkesir
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkâri
  • Hatay
  • Isparta
  • Mersin
  • istanbul
  • izmir
  • Kars
  • Kastamonu
  • Kayseri
  • Kırklareli
  • Kırşehir
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Kahramanmaraş
  • Mardin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Şanlıurfa
  • Uşak
  • Van
  • Yozgat
  • Zonguldak
  • Aksaray
  • Bayburt
  • Karaman
  • Kırıkkale
  • Batman
  • Şırnak
  • Bartın
  • Ardahan
  • Iğdır
  • Yalova
  • Karabük
  • Kilis
  • Osmaniye
  • Düzce
a

Bir Şeyler Uydurmak Yapay Zeka İçin Aşil’in Topuğu Olmaya Devam Ediyor

ad826x90
Mitoloji ile yakın olan veya 2004 imali sinema sineması Truva’yı izleyenler Aşil tendonunun nereden geldiğine hakimdir. Bilmeyenler için kıssayı kısaca özetlememiz gerekirse; Yunan mitolojisindeki büyük savaşçı Aşil, topuğundan tutularak annesi tarafından ölümsüzlük ırmağına batırılır. Bu nedenle, Aşil’in topuğu onun bedenindeki tek zayıf noktası olarak kalır. En nihayetinde ise Truva Savaşı’nda Paris tarafından topuğundan vurularak öldürülür. “Aşil’in topuğu” veya “Aşil’in tendonu” gibi tabirler de bir şeyin en zayıf noktası olarak kullanılıyor. Günümüzün en tanınan başlığı olan yapay zekaların Aşil topuğu ise bir şeyleri uydurma sorunu olmaya devam ediyor.

Yapay zekanın zayıf karnı

Eğer ChatGPT, Gemini veya diğer sohbet robotlarını kullanmışsanız hiç de azımsanmayacak sıklıkta bu araçların bir şeyler uydurduğunu fark etmişsinizdir. Her ne kadar bunlara zeka diyor olsa da bu sistemler gerçek ve kurgu arasında ayrım yapamazlar. Bu nedenle yaptıkları uydurmaları bir gerçek olarak ifade etmeye meyillidirler.

Tüm bunlar 30 Kasım 2022’de ChatGPT piyasaya çıktığında öğrendiğimiz bir şeydi. Ortadan 2 yıl geçmesine rağmen bu bilgiler tam olarak doğru olmaya devam ediyor. Geçtiğimiz yıl firmalar sunumlarında bunun gibi uydurma veya “halüsinasyon” görme eğilimlerine atıfta bulunuyordu. Fakat 2024’te firmalar güya artık bu uydurma sorunu çözülmüşçesine en kritik alanlara bile üretken yapay zekayı entegre ediyorlar ve artık sorulmadığında halüsinasyon ile ilgili bir şeyler söylemiyorlar.

Elbette sıradan bir kullanıcı ChatGPT veya Gemini’yi basit şeyler için kullanıyor. Açıkçası bu içeriğin yazarı bu sistemleri daha çok yemek tanımı için kullanıyor. Şayet tanım yanlış ise biraz zaman kaybı yaşanıyor ama ortada önemli bir sorun olmuyor. Öte yandan bu teknoloji artık tıp, finans ve hukuk gibi alanlara yayılıyor. Bu alanlarda yapılacak bir hata için “Özür dilerim, yanlış bilgi verdim” demek kâfi olmayacaktır.

Geçtiğimiz günlerde tanınan yapay zeka arama motoru Perplexity’nin Forbes ve Wired’a ait içerikleri izinsiz olarak özetlediği tespit edilmişti. Yapılan ayrıntılı incelemelerde Perplexity’nin sunmuş olduğu özetlerde kusurların olduğu keşfedildi. Yani bu sistemler ona sunduğunuz tek bir kaynağı özetlerken bile hata yapabiliyor. Perplexity konusuna daha önce değinmiştik anacak Wired, bu arama motorunu “saçmalık makinesi” olarak nitelendirmişti.

Benzer şekilde Google’ın yapay zeka dayanaklı araması AI Overview’da da benzer şekilde yanılgılı sonuçlar gördük. Yapan oldu mu bilinmez fakat Google’ın yapay zekası insanlara taş yemelerini veya peyniri pizzaya tutturmak için yapıştırıcı kullanmalarını tavsiye etti.

Doğruluk, bir olasılıktan ibaret

ChatGPT’nin piyasaya sürülmesinden sonra bu sistemlerin doğruluğu üzerinde pek çok araştırma yaptı. Yapılan bilimsel araştırmalar bu sistemlerin doğruluğu ile ilgili önemli telaşlar ortaya koyuyor. Dediğimiz ve daha önce değindiğimiz gibi; yapay zekalarda herhangi bir zeka bulunmuyor. Bunlar en basit tabirle bir “olasılık robotu”. Dolayısıyla kendi başlarına doğrulukla ilgilenmiyorlar ve doğrulukla ilgili gerçek bir dert duymadan doğruya uygun görünen metinler üretmek üzere tasarlanmış durumdalar.

Bahsettiğimiz bir şeyleri uydurma, halüsinasyon görme gibi sorunlar ise temelinde yapay zekalar nasıl çalışıyor? sorusunun bir karşılığı. Bu sistemlerin ortaya koyduğu bu kusurlar kendi başlarına basit bir hata değil bu, teknolojinin nasıl çalıştığının bir göstergesi. Daha ileri bir okuma için lütfen bir üstteki içeriğimize göz atınız.

Ancak kısaca özetlemek gerekirse; Gemini veya ChatGPT’ye güç veren büyük dil modelleri (LLM) her bir harften sonra gelecek harfi tahmin etmek üzere kurulmuş bir sistemden ibaret. Bunlar bilgiye dayalı olarak oluşmuyor, hatta sözlere dayalı bile oluşturulmuyor. İşin içinde bir tahmin, bir mümkünlük olduğu için de hiçbir şirket modelin aynı soruya her zaman aynı yanıtı vereceğini asla garanti edemiyor.

Öte yandan bu teknolojiye yakın olmayan sıradan insanlar için yapay zeka, sorularını yanıtlayacak, hastalıklarını teşhis edecek ve/veya işlerini ellerinden bir teknoloji olmaya devam ediyor. Yapay zeka şirketleri -açıkça söylemeyi bırakmış olsalar da- doğruluk konusunu irdelemeye ve çözmeye çalışıyor. En basit fakat kesin olmayan tahlillerden birisi modelin boyutunu yani beslendiği veri kütüphanesini ve bu kütüphanenin kaliteli bilgilerden oluşmasını sağlamak. Milyonlar yerine artık milyar parametreli modellere geçişimiz de bunun bir göstergesi. Fakat en nihayetinden teknolojinin dayandığı şeyde sorun olduğu için çözüme ulaşmak zorlu bir yolculuk olacak.

0 0 0 0 0 0
YORUMLAR

s

En az 10 karakter gerekli

Sıradaki haber:

Shopify’ın Satıcılara Yönelik Yapay Zeka Robotu Erken Erişimde

HIZLI YORUM YAP

0 0 0 0 0 0

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.