32,5422$% 0.06
35,2208€% 0.26
2.468,57%0,23
4.010,00%0,20
16.063,00%0,21
2.359,14%0,14
10.682,15%2,26
OpenAI, Rusya, Çin, İran ve İsrail irtibatlı operasyonların yapay zeka araçlarını dezenformasyon yaratmak ve yaymak için kullandığını ortaya çıkardı.
ChatGPT sohbet robotunun San Francisco merkezli geliştiricisi, yayınladığı raporda, beş bilinmeyen operasyonda yapay zeka modellerinin yüksek hacimde metin ve görseller üretmek için kullanıldığını ve bu metotla daha önce olduğundan daha az dil kusuru yapıldığını, ayrıyeten kendi paylaşımlarına yorum ve cevaplar üretildiğini belirtti.
OpenAI raporunda, içeriklerin “Rusya’nın Ukrayna’yı işgali, Gazze’deki insanlık dramı, Hindistan seçimleri, Avrupa ve Amerika Birleşik Devletleri’ndeki siyaset ve Çinli muhalifler ve yabancı hükümetler tarafından Çin hükümetine yönelik eleştiriler” gibi hususlara odaklandığı belirtildi.
Yapay zekaya dezenformasyon baskısı artıyor
OpenAI gibi hızla büyüyen yapay zeka şirketleri üzerindeki baskı artıyor çünkü teknolojilerindeki hızlı ilerlemeler, dezenformasyon yapanların gerçekçi deepfake’ler yaratmasının, medyayı manipüle etmesinin ve ardından bu içeriği otomatik bir şekilde yaymasının her zamankinden daha ucuz ve kolay olduğunu gösteriyor. Bu yıl yaklaşık 2 milyar insan sandık başına giderken, siyasetçiler şirketleri uygun muhafaza tedbirleri almaya ve uygulamaya çağırdı.
Microsoft takviyeli OpenAI, bu çeşit dezenformasyon kampanyalarını ifşa etmeye kararlı olduğunu ve tespit ve tahlili “daha etkili” hale getirmek için kendi yapay zeka dayanaklı araçlarını geliştirdiğini söyledi. OpenAI, güvenlik sistemlerinin faillerin çalışmasını şimdiden zorlaştırdığını ve modellerinin istenen metin ya da imgeleri üretmeyi birçok kez reddettiğini de sözlerine ekledi.
Raporda OpenAI, devlete bağlı birkaç tanınmış dezenformasyon aktörünün araçlarını kullandığını ortaya koydu. Bunlar arasında ilk kez 2022’de keşfedilen ve ekseriyetle Ukrayna’ya verilen desteği baltalamaya çalışan Doppelganger isimli bir Rus operasyonu ve Pekin’in çıkarlarını yurtdışına taşıyan Spamouflage olarak bilinen bir Çin ağı da vardı. Her iki kampanya da X gibi platformlarda yayınlamadan önce birden fazla lisanda metin yahut yorum oluşturmak için modellerini kullandı.
Daha önce bildirilmeyen ve Bad Grammar olarak isimlendirilen bir Rus operasyonunu da açığa çıkaran rapor, bu operasyonun OpenAI modellerini bir Telegram botunu çalıştırmak için kod yanlışlarını ayıklamak ve daha sonra iletileşme platformu Telegram’da yayınlanan Rusça ve İngilizce kısa, siyasi yorumlar oluşturmak için kullandığını belirtti.
Ayrıca şirket, Tel Aviv merkezli STOIC isimli bir siyasi kampanya yönetimi şirketi tarafından yürütüldüğü iddia edilen ve modellerini X, Instagram ve Facebook’da makaleler ve yorumlar oluşturmak için kullanan İsrail yanlısı bir dezenformasyon girişimini engellediğini söyledi.
Nurus 3. Küresel Showroom’unu Amerika’da Açıyor
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.