İLKE ATİK TAŞKIRAN
Pentagon’un yeni silah arkadaşı: Grok
Bazı açıklamalar vardır; yüksek sesle yapılmaz. Kriz tonu yoktur, alarm zilleri çalmaz. Teknik bir bilgilendirme gibi geçer gider. Ama yıllar sonra dönüp bakıldığında, asıl kırılmanın tam da orada başladığı fark edilir.
ABD Savunma Bakanlığı’nın savunma altyapısında yapay zeka destekli sistemlere geçildiğine dair son açıklama da böyle. Dil sakin, vurgular kontrollü. Savunma Bakanı Pete Hegseth, Grok’un Pentagon’un hem sınıflandırılmış hem de sınıflandırılmamış ağlarında kullanılacağını duyururken, bu adımı ‘yenilikçi yapay zeka teknolojilerini hızla benimsemek’ ve bürokratik engelleri aşarak ABD’yi yapay zeka alanında lider konumda tutmak olarak tanımladı.
Açıklamaya göre Grok, Google’ın Gemini modeliyle birlikte askeri veri üzerinde analiz, planlama ve operasyon destek süreçlerinde görev alacak. Yani yalnızca arka planda çalışan bir yazılım değil; karar süreçlerini besleyen, seçenekleri hazırlayan, riskleri sınıflandıran bir yapı.
Grok, ABD Savunma Bakanlığı’nın geliştirdiği bir sistem değil. Elon Musk’ın yapay zeka şirketi xAI’ye ait bir büyük dil modeli. Kamuoyunda daha çok sosyal medya platformu X ile birlikte anılıyor; sivri dilli, alışılmadık bir sohbet aracı gibi sunuluyor. Oysa Savunma Bakanlığı yetkililerinin özellikle altını çizdiği nokta, Grok’un bir ‘chatbot’ olmaktan öte, güncel ve geniş veri setleriyle sürekli öğrenen bir yapay zeka olması. Ticari servislerden gelen bu çözümün, askeri araştırma ve analiz süreçlerini hızlandıracağı, karar verme aşamalarında ciddi zaman kazandıracağı savunuluyor.
Teknolojik bir güncellemeden fazlası
Bu anlatı, ilk bakışta makul görünüyor. Bürokrasi yavaş, tehditler hızlı. O halde daha hızlı analiz, daha hızlı karar. Ancak burada olan biten bir yazılım tercihi değil. Askerî karar alma süreçlerinin zihinsel altyapısında yaşanan bir dönüşümden söz ediyoruz.
Savunma alanında yapay zekâ kullanımı yeni değil. Hedef tespiti, lojistik planlama, siber savunma ve simülasyonlar uzun süredir algoritmalarla yürütülüyor. Ancak; yapay zeka artık sadece sahadan gelen veriyi analiz eden bir araç değil; karar öncesi seçenekleri daraltan, öncelikleri sıralayan, riskleri tanımlayan bir akıl ortağı. Büyük dil modelleri bu nedenle kritik. Çünkü yalnızca ‘ne oluyor?’ sorusuna yanıt vermiyorlar; ‘ne yapılmalı?’ sorusunu da çerçeveliyorlar. Ve bu çerçeve, insan karar vericinin zihninde giderek daha fazla ağırlık kazanıyor.
Bakanlık açıklamalarında bu sistemlerin ‘ideolojiden arındırılmış’, ‘tarafsız’ ve yalnızca teknik destek sağlayan araçlar olduğu özellikle vurgulanıyor. Ancak tam da bu vurgu, asıl soruyu görünür kılıyor. ‘İdeolojiden arındırılmış’ olduğu söylenen her sistem, hangi verinin anlamlı sayıldığına dair bir ön kabul taşıyor.
Burada kritik olan, yapay zekanın hata yapıp yapmayacağı değil. Asıl mesele, hangi dünya görüşünün, hangi önceliklerin ve hangi çıkar setinin algoritmik olarak merkeze yerleştirildiği. Çünkü bir yapay zeka modeli tarafsız olamaz. Hangi verilerle eğitildiyse, hangi senaryoları riskli, hangilerini önemsiz sayması öğretildiyse; dünyayı tam olarak o çerçeveden okur.
Kodların sahibi kim?
Üstelik bu kodların sahibi bir devlet bile değil.
Grok, ABD Savunma Bakanlığı’nın geliştirdiği bir sistem değil. Elon Musk’ın. Ve Musk, yalnızca bir teknoloji girişimcisi değil; ABD’nin iletişim altyapısından uzay programlarına, sosyal medya ekosisteminden savunma tedarik zincirlerine kadar uzanan geniş bir alanda fiilî söz sahibi olan bir aktör. Seçilmiş değil, atanmış değil; ama etkisi tartışmasız.
Bu durum, klasik devlet–güç–teknoloji ilişkisini tersyüz ediyor. Devletler artık yalnızca teknoloji üretmiyor; teknoloji sahipleriyle pazarlık yapıyor. Savunma gibi en merkezi alanlarda bile, özel şirketlerin epistemik üstünlüğüne bağımlı hale geliyor. Stratejik akıl, kamusal olandan yavaş yavaş özel mülkiyet alanına kayıyor.
Burada tartışılan, yapay zeka kullanılsın mı?’ sorusu değil. Devletin stratejik aklı kime ait oluyor? sorusu.
Fatura kime ödetilir?
Grok’un Pentagon’a giriş biçimi özellikle yumuşak seçildi. Sistemin rolü karar üretmek değil, karar süreçlerini beslemek olarak tarif ediliyor. Bu dil tesadüf değil. Çünkü karar verenle kararın yönünü tayin eden arasındaki fark, kağıt üzerinde büyük; pratikte ise neredeyse görünmezdir. Stratejik akıl, doğrudan emir vermeden de şekillendirilebilir.
Bu sistemler yanıldığında kriz çıkarmaz. Krizi normalleştirir. Yanlış bir değerlendirme felaket yaratmaz; sadece daha sert bir politika, daha erken bir müdahale, biraz daha düşük bir eşik üretir. Bu yüzden hatayı yakalamak zordur. Çünkü sonuç mantıksız değildir; sadece insansızdır.
Grok’un Pentagon’a girişi savaşın otomatikleşmesi değil; aklın prosedüre dönüşmesidir. Kararlar hızlanır, ama kararın etik yükü hafifler. Kimse yanlış yaptığını düşünmez, çünkü herkes ‘en rasyonel seçeneği’ uyguladığını söyler.
Ve tarih, hızlı ama anlamsız kararların bedelini her zaman masum vatandaşa ödetir.