35,4431$% 0.27
36,3540€% -0.47
3.064,19%1,06
4.989,00%0,70
19.895,00%0,69
2.690,37%0,80
9.910,61%-0,90
Büyük dil modelleri (LLM’ler), dünyanın dört bir yanındaki yönetim kurulu odalarının yapay zekâ konuşmalarıyla çalkalanmasının nedeni olabilir ancak teknoloji yıllardır başka biçimlerde iyi bir biçimde kullanılıyor. ESET, yapay zekâyı ilk olarak çeyrek asır önce makro virüslerin tespitini düzgünleştirmek amacıyla kullanmaya başladı. Günümüzde güvenlik ekipleri, üç ana etken sayesinde etkili yapay zekâ tabanlı araçlara her zamankinden daha fazla ihtiyaç duyuyor:
1) Yeni Yetenek eksikliği sert bir şekilde vurmaya devam ediyor: Son sayıma göre, Avrupa’da 348.000 ve Kuzey Amerika’da 522.000 olmak üzere dünya genelinde yaklaşık dört milyon siber güvenlik uzmanı açığı bulunuyor. Yapay zekâ 7 gün 24 saat çalışabilir ve güvenlik uzmanlarının gözden kaçırabileceği kalıpları tespit edebilir.
2) Tehdit aktörleri çevik, kararlı ve iyi kaynaklara sahip: Siber güvenlik ekipleri eleman bulmakta zorlanırken rakipleri de güçlenmeye devam ediyor. Bir kestirime göre, siber suç iktisadı 2025 yılına kadar dünyaya yıllık 10,5 trilyon dolara mal olabilir. Tehdit aktörleri, saldırı başlatmak için ihtiyaç duydukları her şeyi hazır “hizmet olarak” teklifler ve araç setleri halinde bulabiliyorlar.
3) Riskler hiç bu kadar yüksek olmamıştı: Dijital yatırımlar yıllar içinde arttıkça sürdürülebilir büyümeyi ve rekabet avantajını desteklemek için BT sistemlerine olan güven de artmıştır. Ağ savunucuları, siber tehditleri önleyemez ya da hızla tespit edip kontrol altına alamazlarsa kurumlarının büyük mali ve itibar kaybına uğrayabileceğini biliyor. Günümüzde bir veri ihlalinin maliyeti ortalama 4,45 milyon dolar. Ancak hizmet kesintisi ve veri hırsızlığı içeren önemli bir fidye yazılımı ihlali bunun çok daha fazlasına mal olabilir. Bir iddiaya göre sadece finans kurumları 2018’den bu yana hizmet kesintisi nedeniyle 32 milyar dolar kaybetti.
Yapay zekâ güvenlik ekipleri tarafından gelecekte nasıl kullanılabilir?
Tehdit istihbaratı: LLM destekli GenAİ asistanları, analistler için temel noktaları ve harekete geçirilebilir çıkarımları sade bir İngilizce ile özetlemek için yoğun teknik raporları analiz ederek karmaşık olanı kolaylaştırabilir.
Yapay zekâ asistanları: BT sistemlerine yapay zekâ “yardımcı pilotları” yerleştirmek, kuruluşları saldırıya maruz bırakacak tehlikeli yanlış yapılandırmaları ortadan kaldırmaya yardımcı olabilir. Bu, bulut platformları gibi genel BT sistemleri için olduğu kadar güvenlik duvarları gibi karmaşık ayarların güncellenmesini gerektirebilecek güvenlik araçları için de işe yarayabilir.
SOC üretkenliğini güçlendirmek: Günümüzün Güvenlik Operasyon Merkezi (SOC) analistleri, gelen tehditleri hızla tespit etmek, yanıtlamak ve kontrol altına almak için büyük bir baskı altında. Saldırı yüzeyinin büyüklüğü ve uyarı üreten araçların sayısı birçok zaman bunaltıcı olabiliyor. Bu, analistler vakitlerini yanlış müspetlerle harcarken yasal tehditlerin radara yakalanmadığı anlamına gelir. Yapay zekâ, bu tür ihtarları bağlamsallaştırarak ve önceliklendirerek ve hatta muhtemelen küçük ihtarları çözerek yükü hafifletebilir.
Yeni tespitler: Tehdit aktörleri taktiklerini, tekniklerini ve prosedürlerini (TTP’ler) daima olarak geliştirmektedir. Ancak yapay zekâ araçları, risk göstergelerini (IoC’ler) kamuya açık bilgiler ve tehdit yayınlarıyla birleştirme yaparak en yeni tehditleri tarayabilir.
YZ siber saldırılarda nasıl kullanılıyor?
Sosyal mühendislik: GenAİ’ın en bariz kullanım alanlarından biri, tehdit aktörlerinin büyük ölçekte son derece ikna edici ve neredeyse gramatik olarak harika kimlik avı kampanyaları oluşturmasına yardımcı olmak.
BEC ve diğer dolandırıcılıklar: GenAİ teknolojisi bir kez daha, belirli bir kişi ya da kurumsal kişiliğin yazı tarzını taklit etmek, kurbanı kandırarak para havalesi yaptırmak ya da hassas verileri teslim etmesini sağlamak için kullanılabilir. Deepfake ses ve video da aynı amaçla kullanılabilir.
Dezenformasyon: GenAİ, etki operasyonları için içerik yaratma işinin ağır yükünü de ortadan kaldırabilir. Yakın tarihli bir rapor, Rusya’nın bu tür taktikleri halihazırda kullandığı konusunda ikazda bulundu ki bu taktikler başarılı bulunursa geniş çapta tekrarlanabilir.
YZ‘nin Sınırları
İyi ya da kötü, yapay zekanın şu anda sınırlamaları var. Yüksek yanlış müspet oranları verebilir ve yüksek kaliteli eğitim setleri olmadan etkisi sınırlı olabilir. Çıktıların doğruluğunu kontrol etmek ve modellerin kendilerini eğitmek için genellikle insan nezareti de gerekli. Tüm bunlar, Aİ’ın ne saldırganlar ne de savunmacılar için sihirli bir değnek olmadığı gerçeğine işaret ediyor.
Diğer Teknoloji Haberleri İçin Tıklayın / Bursa Haber – Bursa Gündem – Bursa Gündem Haber – Bursa Haberleri – Bursa Son Dakika
Bizi İnstagram’da Takip Edebilirsiniz / @BursaGündemHaber
Bizi X’de Takip Edebilirsiniz / @BursaGündemHbr
Bizi Facebook’da Takip Edebilirsiniz / @BursaGündemHaber
Bizi Youtube’da Takip Edebilirsiniz / @BursaGündemHaber
Bizi Linkedin’de Takip Edebilirsiniz / @BursaGündemHaber
Asus Türkiye, Zenbook S 14 Aİ Pc’sini Türkiye’de Ön Satışa Çıkardı