Yapay zekâ devi OpenAI, ürettikleri gelişmiş sistemlerin siber güvenlik için giderek büyüyen bir tehlike oluşturduğu konusunda uyarı yayımladı. Şirket, Axios’a özel olarak sunduğu yeni bir raporda, çok yakında piyasaya sürülecek modellerin üst düzey siber saldırı yeteneklerine sahip olabileceğini bildirdi.

OTONOM ÇALIŞMA YETENEĞİ SALDIRGAN SAYISINI ARTIRACAK

OpenAI'ın değerlendirmesine göre, modellerin insana yakın bir verimlilikle karmaşık görevleri daha uzun süre bağımsız olarak yürütebilme potansiyeli, siber saldırı yapabilecek kişilerin sayısını kayda değer ölçüde çoğaltabilir. Şirket, bu yeteneklerin son sürüm yazılımlarında çok hızlı ilerlediğini belirterek, durumun özellikle deneme yanılma (brute force) tabanlı saldırılar için büyük bir tehdit oluşturduğunu ifade etti.

YENİ MODELLERDE ETKİLİLİK %76'YA ÇIKTI

Kurum içi gerçekleştirilen testler dikkat çekici sonuçlar ortaya koydu: GPT-5, geçen Ağustos ayında yapılan bir siber güvenlik tatbikatında ("capture-the-flag" alıştırması) %27 başarı elde etti. Ancak daha ileri bir versiyon olan GPT-5.1-Codex-Max, geçen ay aynı testte %76'lık bir başarı oranına ulaştı. OpenAI, raporunda şu ifadelere yer verdi: "Geliştirilmekte olan modellerin de bu eğilimi sürdürmesini bekliyoruz. Bu nedenle her yeni modeli, 'yüksek' risk potansiyeli taşıyacakmış gibi varsayarak hazırlıklarımızı sürdürüyoruz."

RİSK KATEGORİLERİ VE GİZLİLİK

"Yüksek" risk seviyesi, şirketin belirlediği güvenlik çerçevesindeki en tehlikeli ikinci seviye. Bu seviyenin üzerindeki "kritik" risk düzeyine ulaşan modellerin ise kamuya sunulmasının güvenli olmayacağı belirtiliyor. OpenAI, hangi spesifik modellerin ne zaman bu tehlike eşiğine ulaşacağına dair ise herhangi bir bilgi paylaşmaktan kaçındı.

Kaynak: Kanal 6 Haber Merkezi