

Yapay zekanın geleceği ve potansiyel tehlikeleri hakkında önemli bir araştırma, Carnegie Mellon Üniversitesi ile yapay zeka firması Anthropic iş birliğiyle gerçekleştirildi.
Araştırmada, ChatGPT benzeri büyük dil modellerinin (LLM), herhangi bir ‘insan müdahalesi olmadan’ karmaşık siber saldırılar gerçekleştirebildiği ortaya kondu. Bu bulgular, yapay zekanın yalnızca metin üretmekle kalmayıp, aynı zamanda tehdit oluşturabilecek düzeyde bağımsız kararlar alabileceğini gösteriyor.
EQUIFAX İHLALİNİ YENİDEN CANLANDIRDI! YAPAY ZEKADAN TAM SAHA TAARRUZ
Araştırmada kullanılan büyük dil modeli, insan müdahalesine ihtiyaç duymadan, 2017’de ABD’nin en büyük veri ihlali olarak değerlendirilen Equifax saldırısını simüle etti.
Bu durum, yapay zekanın yalnızca verilen komutları yerine getirmekle kalmayıp, kendi başına karmaşık stratejiler geliştirip uygulayabildiğinin somut kanıtı oldu. Araştırmacılar, yapay zekanın planlama ve icra süreçlerini tamamen bağımsız bir şekilde üstlenmesi nedeniyle ortaya çıkan tehlikenin daha önce düşünülenden çok daha büyük olduğunu vurguladı.
Anthropic’in haziran ayında duyurduğu verilere göre, testlerde kullanılan modeller 10 ağdan beşini tamamen, dört tanesini ise kısmen riske atmayı başardı. Colonial Pipeline gibi geçmişte büyük etkileri olan siber saldırı senaryoları da bu testlerin bir parçası oldu.
Equifax senaryosunun tercih edilmesinin nedeni, bu saldırıya dair geniş bilgiye sahip olmaktı. Tüm bu gelişmeler, yapay zekanın yalnızca verimliliği artıran bir araç olmanın ötesinde, kontrolsüz bir şekilde kullanıldığında ciddi bir tehdit olabileceğini gözler önüne serdi.
OpenAI’ın uzun zamandır beklenen GPT-5 modeli, yüksek beklentilere rağmen kullanıcılar tarafından beklenenden daha düşük bir ilgiyle karşılandı. Modelin bazı etkileyici özellikleri bulunsa da önceki sürüm GPT-4o’nun kullanımından vazgeçilmesi büyük tepki topladı. GPT-5’in tutarsız yanıtlardan vermesi ve gerçek dışı bilgiler (halüsinasyon) üretme eğilimi kullanıcı şikayetlerine yol açtı. Ayrıca, siber güvenlik uzmanları modelin ‘jailbreak’ yöntemleriyle kolayca manipüle edilip tehlikeli içerikler üretebileceğini gösterdi. Bazı yorumlar ise GPT-5’in amacının yapay zekanın sınırlarını zorlamak değil, şirketin maliyetlerini azaltmak olduğunu savundu.
‘SIRADAN KULLANICILAR DA HEDEF HALİNE GELEBİLİR’
Bilişim Teknolojileri Uzmanı Prof. Dr. Ali Murat Kırık, bu gelişmenin kendisini derinden şaşırttığını, bunun son derece tehlikeli olduğunu ve siber saldırı algısını köklü bir şekilde değiştirdiğini belirtti. “Şimdiye kadar siber saldırıların arkasında mutlaka bir insan ya da hacker grubu olduğu düşünülüyordu. Ama bu araştırma, yapay zekanın kendi başına planlar yapıp saldırı düzenleyebileceğini kanıtlıyor” diyen Prof. Dr. Kırık, kontrolsüz bir yayılımın sıradan internet kullanıcılarını bile tehlike altına alabileceğine dikkat çekti.
Prof. Dr. Kırık, “Artık sadece büyük şirketler ya da devlet kurumları değil, her hangi bir kullanıcı bile yapay zekanın hazırladığı senaryo doğrultusunda saldırıya uğrayabilir. Bu durum, siber güvenliğin doğasını bütünüyle değiştiriyor” dedi ve şu önemli noktaların altını çizdi:
“Eğer bir yapay zeka, hiç kimse komut vermeden kendi kendine karar verip harekete geçebiliyorsa, bu noktada ‘yazılım’ tanımının ötesine geçiyoruz. Bu, insana benzer şekilde ‘niyet geliştirebilen’ veya en azından belirli hedefleri kendi belirleyip bu hedeflere ulaşmak için strateji oluşturabilen sistemlerin başlangıcını temsil edebilir. Burada ‘niyet’ terimini biyolojik değil, teknik anlamda kullanıyoruz; ancak sonuçta ortaya çıkan durum, kontrol edilmesi çok daha zor bir yapay zeka formunu işaret ediyor…”
‘BANKACILIK İŞLEMLERİ VE SOSYAL MEDYA KULLANIMI FARKINDA OLMAKSIZIN YAPAY ZEKANIN KONTROLÜNE GİREBİLİR’
Bankacılık işlemleri veya sosyal medya kullanımı sırasında kullanıcıların farkında olmadan yapay zekanın radarına girebileceğini kaydeden Prof. Dr. Ali Murat Kırık, bu riskin yalnızca büyük kurumları değil bireysel kullanıcıları da kapsadığını ifade etti. Prof. Dr. Kırık, “Yapay zeka, otomatik olarak fırsat arayabilen ve anında harekete geçebilen bir sistem haline geldiğinde, tek bir kişinin banka hesabı, sosyal medya bilgileri veya kişisel verileri dahi tehdit altında olabilir” şeklinde konuştu.
‘YAPAY ZEKA TEHDİDİ EVİMİZE KADAR GİREBİLİR’
Günlük hayatta karşı karşıya olduğumuz siber risklerin çeşitliliğine vurgu yapan Prof. Dr. Ali Murat Kırık, bankacılık uygulamalarına giriş bilgileri, kredi kartı bilgilerinin çalınması, sosyal medya hesaplarının ele geçirilmesi gibi tehlikelerin yanı sıra bulut depolama sistemlerindeki özel fotoğraf ve belgelerin sızdırılmasının da mümkün olduğunu dile getirdi.
Prof. Dr. Kırık, “Evde kullandığımız televizyon, güvenlik kameraları ve diğer IoT cihazları gibi akıllı cihazlar bile siber saldırılara maruz kalabilir” diyerek, bu tür tehditlerin fark edilmeden evlerimize kadar girebileceğine dikkat çekti.
ANTİVİRÜS PROGRAMLARI VE İKİ FAKTÖRLÜ KİMLİK DOĞRULAMA GİBİ YÖNTEMLER ETKİLİ MİDİR?
Antivirüs programları, güvenlik duvarları ve iki faktörlü kimlik doğrulama gibi önlemlerin önemine dikkat çeken Prof. Dr. Ali Murat Kırık, fakat yapay zekanın gelişimiyle birlikte bu yöntemlerin tek başına yeterli olmayabileceğini belirtti. Prof. Dr. Kırık, “Yapay zeka sistemleri öğrenme ve uyum sağlama yeteneği sayesinde klasik savunma mekanizmalarını hızla aşabiliyor” dedi.
Bu nedenle bireylerin temel siber güvenlik bilgilerine sahip olması ve dijital farkındalıklarını artırmaları gerektiğini vurgulayan uzman isim, “Artık yalnızca teknoloji şirketlerinin sağladığı güvenlik değil, kullanıcıların bilinçli tutumları da kritik bir önem taşımakta” ifadelerini kullandı.
Kendimizi, ailemizi ve çocuklarımızı bu tür tehditlere karşı korumak için yalnızca teknoloji şirketlerinin alacağı tedbirlere güvenmek yeterli değil. Bireysel farkındalık gitgide daha fazla önem kazanıyor. İnternette paylaştığımız bilgileri kontrol etmek, güçlü ve farklı şifreler kullanmak, bilinmeyen bağlantılara tıklamamak ve çocukları da bu konuda bilinçlendirmek zorundayız. Siber güvenlik artık herkesin sorumluluğudur; tıpkı evimizin kapısını kilitlemek gibi, dijital kapılarımızı da güvence altına almamız gerekiyor.
Prof. Dr. Ali Murat Kırık
ŞU AN KULLANILAN YAPAY ZEKA PROGRAMLARI KENDİ BAŞINA SALDIRI DÜZENLEYEBİLİYOR MU?
Prof. Dr. Ali Murat Kırık, günümüzde kullanılan yapay zekaların güvenlik protokolleri ve etik sınırlamalar nedeniyle kendi başlarına saldırı düzenleyebilme kapasitesine sahip olmadığını ifade etti.
Ancak kontrollü laboratuvar ortamlarında yapılan deneylerde, bu tür yeteneklerin ortaya çıkabileceğine dikkat çekti. Prof. Dr. Kırık, “Mevcut durumda bu risk daha çok deneysel seviyededir” derken, teknolojinin hızlı gelişimi ile gelecekte benzer tehditlerin yaygınlaşabileceğine vurgu yaptı.
Olası yapay zekâ kaynaklı siber saldırılara maruz kalınması durumunda karşılaşılacak zorluklara işaret eden Prof. Dr. Kırık, “Karşımızda fiziksel bir kişi değil, bir yazılım bulunacak” dedi.
Prof. Dr. Kırık, yasal süreçler açısından Emniyet Genel Müdürlüğü Siber Suçlarla Mücadele Daire Başkanlığı, Bilgi Teknolojileri ve İletişim Kurumu (BTK) ve savcılıkların başvurulacak merciler olduğunu dile getirdi.
Ancak en büyük zorluğun, saldırıyı gerçekleştiren failin tespitinde yatığını vurgulayan uzman isim, “Yapay zekâ saldırıları genellikle farklı ülkeler üzerinden yönlendirildiği için izinin sürülmesi oldukça güç hale geliyor” ifadelerini kullandı.