Seçim günü değil, seçime giden yol tehlikede

Seçim günü değil, seçime giden yol tehlikede
Sandığa doğrudan müdahale etmek zor olabilir ama seçmenin kararını etkileyen bilgi ortamı her gün manipüle edilebilir. Bu yüzden seçim güvenliğini yalnızca oy sayımı ve siber önlemlerle sınırlamamalıyız.

Prof. Dr. Ali Onur Özçelik

Türkiye’de her şey planlandığı gibi giderse bir sonraki genel seçimin 2028 Mayıs civarında yapılması bekleniyor. Ancak seçim takvimi yaklaşmadan önce konuşulması gereken önemli bir konu var. Seçim hazırlığı içinde olan siyasi partilerin yapay zekâ ve sosyal medya konusunda gerçekten bir hazırlığı var mı? Çünkü seçim güvenliği yalnızca seçim günü sandık başında başlamıyor. Aylar, hatta yıllar öncesinden dijital alanda başlıyor. Üstelik bugün bazen sandığın fiziksel güvenliğinden bile daha kritik bir konu var: Algı güvenliği. Yani seçmenin neyi, nasıl duyduğunu; hangi bilgiyle kanaat oluşturduğunu belirleyen ortamın güvenliği.

Bu yazının başlıca amacı da bu konuyu kapsamlı bir şekilde ele almak. 2024 yılı dünya açısından önemliydi çünkü birçok ülkede seçimler yaşandı ve bu yıl yoğun seçim dönemi olarak adlandırıldı. Farklı sayımlara göre 60’tan fazla ülkede (ve AB düzeyinde) ulusal seçim yapıldı. UNDP’ye göre ise 2024’te 72 ülkede sandık kuruldu; yaklaşık 3,7 milyar seçmen—yani dünya nüfusunun yaklaşık yarısı—oy kullanma imkânı buldu.

Hindistan, ABD, Meksika, Endonezya, Güney Afrika ve AB Parlamentosu seçimleri bu dönemin en etkili örnekleri arasındaydı. Elbette seçimler sonrasına ilişkin çok sayıda rapor da yayımlandı. Ben bu raporları bir araya getirip öne çıkan bulguları kısa ve anlaşılır biçimde sizlerle paylaşmak istiyorum.

Son söyleyeceğimizi ilk başta belirtelim: Seçim güvenliğini hâlâ yalnızca sandık ve oy sayımı üzerinden konuşuluyorsa, asıl risk kaçırılıyor demektir. Aslında bugün saldırı altında olan tek şey sandık değil; seçime giden bilgi akışı. Yeni dönemde amaç sadece oyları sayarken hile yapmak değil; seçmenin neye inanacağını ve nasıl karar vereceğini etkilemek, gündemi yönlendirmek ve kamusal tartışmaya olan güveni aşındırmak. AB Komisyonu’nun 2024 Avrupa Parlamentosu seçimleri sonrası raporu da bunu gösteriyor: Avrupalıların %78’i dezenformasyonu, %72’si siber saldırıları, %70’i ise yabancı ülkelerin gizli etkisini seçimler için ciddi risk olarak görüyor. Yani algı güvenliği artık seçim güvenliğinin tam merkezinde. Hatta neredeyse her 4 Avrupalıdan 3’ü seçimlerin bir şekilde manipüle edileceğine inanıyor. Kısaca, seçime müdahalenin artık bir ihtimal olmaktan çıktığını söylemek mümkün.

Peki bu konu neden şimdi daha da kritik bir hal aldı? Çünkü yapay zekâ, manipülasyonu daha ucuz, daha hızlı ve daha büyük ölçekte mümkün kıldı. Üretken yapay zekâ (GenAI) yalanı icat etmedi ama yalan üretimini kolaylaştırdı ve seri hale getirdi. Zaten yapay zekâ öncesinde bile yalan haberlerin ne kadar hızlı bir şekilde yayıldığını biliyoruz. Örneğin, Vosoughi, Roy ve Aral’ın 2018 yılında Science dergisinde yayımlanan çalışması, Twitter’da 2006–2017 arasında yaklaşık 126 bin haberin (içeriğin) yayılımını inceleyip şunu gösteriyor: Yalan haberler doğru haberlere göre belirgin biçimde daha hızlı yayılıyor. Verdikleri örnek önemli çünkü doğru haberlerin 1.500 kişiye ulaşması, yalan haberlere kıyasla yaklaşık altı kat daha uzun sürüyor ve yalan haberler %70 daha yüksek olasılıkla retweet ediliyor. MIT News bu çalışmanın özetini paylaştığı haberde, “cascade depth 10” eşiğine yalan haberlerin yaklaşık 20 kat daha hızlı ulaştığı da vurgulanıyor. Diğer bir ifadeyle, yayılım zincirinin 10 adım derinliğe ulaşması (yani içeriğin retweet’lerle 10 halka boyunca ilerlemesi) yalan haberlerde çok daha hızlı gerçekleşiyor. Üstelik bu bulgular, üretken yapay zekâ bugünkü kadar yaygın değilken elde edildi. Bugün içerik hem daha profesyonel görünüyor hem de kişilere ve/veya gruplara (örneğin 65 yaş üstü ya da kırsal alanda yaşayanlar, vb. gibi) göre uyarlanabildiği için yanlış bilginin ikna gücü daha da artıyor.

Tüm akademik çalışmaları burada tek tek anlatmak mümkün değil; bu yüzden birkaç çarpıcı noktaya odaklanmak daha doğru. Araştırmalar, insanların AI üretimi içerikleri (metin/ses/video) insan yapımı içerikten ayırt etmede çoğu zaman “şansa” yakın bir performans sergilediğini söylüyor; özellikle metinde yanılma riski artıyor. Yani gözümle gördüm / kulağımla duydum artık tek başına güvenilir bir savunma değil. Etiketleme, kaynak doğrulama ve teknik tespit gibi yöntemlerin birlikte kullanılması gerekiyor.

Dezenformasyonla mücadele, baskı aracına dönüşürse ters tepebilir

Burada Avrupa Parlamentosu Araştırma Servisi’nin (EPRS) 2025 değerlendirmesi önemli: Rapora göre üretken yapay zekâ, bilgi manipülasyonunu daha ucuz, daha hızlı, daha ikna edici ve tespiti daha zor hale getiriyor. Ayrıca 2024’te GenAI’ye küresel özel yatırımın 33,9 milyar dolara ulaşması, bu alan büyüdükçe kötüye kullanım kapasitesinin de büyüdüğünü gösteriyor. Risk yalnızca “deepfake video” değil; asıl tehlike, yanlış bilginin mikro-hedefleme, bot ağları, koordineli hesaplar, sahte yerel profiller ve uç içeriği öne çıkaran algoritmalarla birleşip bir “ekosistem” gibi çalışması. Üstelik reklam/para kazanma düzeni yüzünden manipülasyon hem kolaylaşıyor hem de çok kârlı bir hale gelebiliyor.

AB’nin bu konuya yaklaşımı kabaca şöyle: Platformlar daha fazla sorumluluk alacak, kurallar daha şeffaf olacak ve kriz anında hızlı müdahale edilecek. Aslında rapor şunun altını çiziyor, tek tek içerikleri engellemek yerine, sistemin kendisinin kontrol altına alınmasını sağlamak. AB Komisyonu’nun 2024’te Dijital Hizmetler Yasası (DSA) kapsamında yayımladığı seçim kılavuzu (Avrupa Komisyonu (2024) — Commission publishes guidelines under the DSA for the mitigation of systemic risks online for elections, Dijital Hizmetler Yasası (DSA) kapsamında seçimlere yönelik sistemik risk azaltım kılavuzu) da, çok büyük platformlar ve arama motorları için seçim döneminde atılması gereken asgari adımları sıralıyor ve açık bir mesaj veriyor: Risk yönetimi yalnızca seçim günü değil; seçim öncesi–seçim süreci–seçim sonrası boyunca devam etmeli. Bu yüzden bu tarz platformlardan bekledikleri şunlar: i) Seçim dönemine özel ekip kurmaları; ii) yerel riskleri yakından izlemeleri; iii) Resmî ve güvenilir kaynakları daha görünür kılmaları; iv) Medya okuryazarlığını desteklemeleri; v) Seçim bütünlüğünü bozabilecek içeriklerin yayılımını ve para kazanmasını engellemeleri; vi) Siyasi reklamları açık biçimde etiketlemeleri; vii) Yapay zekâ ile üretilmiş içerikleri (ör. deepfake) daha belirgin işaretlemeleri; viii) Kritik olaylarda hızlı koordinasyonla müdahale etmeleri; ix) Seçim sonrası “ne işe yaradı, ne yaramadı?” diye sonuç değerlendirmesi yapmaları. Özetle seçim güvenliği bir defaya mahsus alınan bir önlem olarak değil; sürekli işleyen bir döngü olarak görülüyor.

Buraya kadar aslında net bir tablo çizebiliyoruz. Ancak asıl tartışma hukuk ve haklar tarafında başlıyor. Çünkü seçim döneminde alınacak önlemler iki hakkı birlikte korumayı gerektiriyor: seçmenin özgürce kanaat oluşturması ile kişisel verilerin ve mahremiyetin korunması. Avrupa Konseyi Venedik Komisyonu da dijital teknoloji ve yapay zekâya ilişkin deklarasyonunda bunu seçim ilkeleriyle doğrudan ilişkilendiriyor. Bu bağlamda, serbest seçimi, seçmenin doğru bilgiye erişebilmesi, çevrimiçi mahremiyetinin ve gizli iletişiminin korunmasıyla birlikte düşünülmesi gerektiğini vurguluyor. Ayrıca kişisel verilerin korunması ve insanların yalnızca otomatik sistemlerin kararlarıyla ağır biçimde etkilenmemesi gerektiği de özellikle vurgulanıyor.

Bu çerçevenin anlattığı şey kısaca şu: Dezenformasyonla mücadele, ifade özgürlüğünü budayan bir baskı aracına dönüşürse ters tepebilir. Kısa vadede bazı içerikler azalır gibi görünse bile, uzun vadede toplumsal güven daha da erir. Yani güvenlik mi özgürlük mü? diye bir sıfır toplam hesabı yerine, hak temelli bir dengenin kurulmasını salık veriyor.

Benzer bir uyarı AGİT’in 2025 Varşova İnsan Boyutu Konferansı çıktı raporunda da yerini buldu. Raporu hazırlayan uzmanlara göre, yapay zekâ kaynaklı dezenformasyonun seçim sonuçlarını beklenen ölçüde belirlediğini gösteren güçlü kanıtlar şimdilik sınırlı. Ama bu risk yok şeklinde düşünülmemeli. Çünkü rapor, üretken yapay zekânın kampanya yöntemlerini ve seçimle ilgili operasyonları şimdiden değiştirmeye başladığını vurguluyor. Üstelik sosyal medya platform kurallarının çoğu zaman şeffaf olmaması, kutuplaştırıcı içeriği ödüllendiren teşviklerin çalışabilmesi ve gönüllü önlemlerin sık sık yetersiz kalması şimdiden bu platformlarla başedebilme kapasitemizi güçlendirelim mesajı veriyor.

Teknik tarafı en iyi anlatan örneklerden biri de ABD Ulusal Standartlar ve Teknoloji Enstitüsü’nün (NIST) 2024 raporu. NIST, yapay zekâ ile üretilmiş (sentetik) içeriklerin riskini azaltmak için kullanılan araçları sistematik biçimde ele alıyor: filigran/watermark, içeriğin kaynağını izleme (provenance), metadata kullanımı ve tespit (deteksiyon) sistemleri gibi. Elbette bu yazdıklarım en basit ve anlaşılır olanları. Daha teknik konuları merak edenler mutlaka bu raporu incelemesi gerekir. Ancak kısaca raporun yapmış olduğu temel çıkarım şu: Tek bir teknik çözüm her şeyi çözmez. Bu araçlar faydalı ipuçları verir ama bağlamdan koparılırsa ya da bot ağları, koordineli kampanyalar gibi yöntemlerle desteklenirse, insanlarda yanlış bir güven duygusu da yaratabilir. Bu yüzden seçim gibi yüksek riskli alanlarda NIST’in genel bir önerisi var: Çok katmanlı korunma. Yani, teknik önlemler, platform politikaları, doğrulama süreçleri ve hızlı müdahale mekanizmalarının birlikte çalışabildiği bir ortamın sağlanması.

Demokrasi yalnızca oy kullanmak değil; doğru bilgiye erişerek oy kullanabilmektir

Peki bütün bu yük yalnızca siyasi partilerin omzunda mı olmalı? Aslında hayır. Bu kadar geniş bir riski azaltmak ve etkin bir koruma kalkanı oluşturabilmek için toplumun birlikte hareket etmesi şart ve bu bağlamda seçim kurulları, platformlar, medya, akademi, sivil toplum, vd. aynı masa etrafında oturması gerekir.

UNDP’nin 2025 Stratejik Diyalog çıktıları bunu daha somut hale getiriyor. Önerileri kısaca şu şekilde: Platformların seçim dönemleri için özel seçim bütünlüğü ekipleri kurması, büyük politika değişikliklerinde insan hakları etkisini değerlendiren raporlar yayımlaması, araştırmacılar için veri ve API (Application Programming Interface/Uygulama Programlama Arayüzü) erişimini geliştirmesi, yerel dilde moderasyonun güçlendirilmesi ve yapay zekâ üretimi içerikler için hızlı tespit/müdahale mekanizmaları kurması bekleniyor. Seçim yönetim organları için de düzenli, doğru ve kolay erişilebilir resmî bilgi akışı; medya, platformlar, kamu ve sivil toplumla ortak bir koordinasyon ağı öneriliyor. International IDEA’nın 2025 raporları da aynı noktayı tamamlıyor: Bilgi ekosistemi sadece seçim dönemine sıkıştırılamaz; çünkü dezenformasyon seçim aralarında da kutuplaşma ve güvensizliği besleyip bir sonraki seçimin zeminini şimdiden hazırlar.

Bütün bunlardan sonra Türkiye için de seçim güvenliğini yalnızca sandık ve oy sayım süreçleri olarak değil, seçmenin doğru bilgiye erişebildiği ve baskı altında kalmadan kanaat oluşturabildiği bir bilgi bütünlüğü meselesi olarak yeniden düşünmek gerekiyor. Ama burada kritik bir risk var: Türkiye’nin siyasal gerçekliği içinde bu yaklaşım kolayca aşırı iyimser bir yere oturabilir. Kurumların ve düzenleyici mekanizmaların iktidar etkisinde algılandığı, medya alanının asimetrik işlediği ve denetim kapasitesinin zayıflayabildiği bir ortamda hızlı koordinasyon, resmî bilgi kanalı, müdahale protokolü gibi kavramlar, dezenformasyonla mücadeleden çok tek taraflı bilgi yönetimine veya resmî anlatıyı güçlendirme aracına dönüşebilir.

Bu nedenle yapılması gereken yalnızca teknik önlemleri sıralamak değil; bu önlemlerin kim tarafından, hangi şeffaflıkla, hangi denetimle ve hangi itiraz mekanizmasıyla işletileceğini açıkça tasarlamaktır. Seçim döneminde bilgi akışını düzenleyecek bir protokol olacaksa tek bir merkeze bırakılmamalı; bağımsız doğrulama ağları, akademi, meslek örgütleri, sivil toplum ve farklı siyasi aktörlerin yer aldığı çoğulcu bir yapı üzerinden yürümeli. Ayrıca yapılan her müdahale gerekçesiyle birlikte kayıt altına alınmalı.

Şeffaflık da sadece etiketledik demekle olmaz. Siyasi reklamlarda kimin, neyi, kime, hangi bütçeyle gösterdiği; platformların hangi içeriklere neden müdahale ettiği; algoritmalarla risk azaltımının nasıl işlediği gibi konularda düzenli, kamuya açık ve karşılaştırılabilir raporlama ile bağımsız denetim zorunlu hale gelmeli. Yerel dil ve bağlam kapasitesi güçlendirilmeli; ama bu kapasitenin siyasallaşması riskine karşı araştırmacılar için veri/API erişimi, itiraz/temyiz süreçleri ve dış denetim mekanizmaları da birlikte kurulmalı. Belki de en önemlisi, dezenformasyonla mücadelenin ifade özgürlüğünü baskılayan bir refleksle yürütülmesinin önüne geçebilmek. Çünkü hak temelli denge, seçmenin kanaat özgürlüğünü güçlendiren, keyfî müdahaleyi sınırlayan ve güveni artıran bir tasarıma dayanmak zorunda.

Sonuç olarak, sandığa doğrudan müdahale etmek zor olabilir; ama seçmenin kararını etkileyen bilgi ortamı her gün manipüle edilebilir. Bu yüzden seçim güvenliğini yalnızca oy sayımı ve siber önlemlerle sınırlamamalıyız. Platformların teşvik ettiği içerik türlerini, şeffaflığı, kurumlar arası koordinasyonu ve temel hakları birlikte gözeten bir bilgi bütünlüğü stratejisine ihtiyaç var. Çünkü demokrasi yalnızca oy kullanmak değil; doğru bilgiye erişerek oy kullanabilmektir. Bu imkânı korumak, yeni dönemde hem demokratik meşruiyet hem de ülke güvenliği açısından en kritik başlıklardan sadece birkaç tanesi arasındadır.

-----------------------------

İlgilisi için araştırma linkleri:

– Human performance in detecting deepfakes (Computers in Human Behavior Reports) — https://www.macdorman.com/kfm/writings/pubs/Diel-2024-Human-Performance-Detecting-Deepfakes-Meta-Analysis.pdf

Groh et al. (2024) – Human detection of political speech deepfakes (Nature Communications) — https://www.nature.com/articles/s41467-024-51998-z

Porter / Machery (2024) – AI-generated poetry indistinguishable from human (Scientific Reports) — https://www.nature.com/articles/s41598-024-76900-1

Mai et al. (2023) – Humans cannot reliably detect speech deepfakes (PLOS ONE) — https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0285333

Ali Onur Özçelik, Eskişehir Osmangazi Üniversitesi Uluslararası İlişkiler Bölümü’nde profesör ve tam zamanlı öğretim üyesidir. Birmingham Üniversitesi’nde Transatlantik İlişkiler alanında yüksek lisansını, Sheffield Üniversitesi’nde ise siyaset alanında doktorasını tamamladı. Çalışmalarında AB–Türkiye ilişkileri, sivil toplum ve ulusötesi aktörler, diplomasi, küresel düzenin dönüşümü ile uluslararası ilişkiler ve yapay zekâ konularına odaklanıyor.

Kaynak:Haber Merkezi

Abone Ol

İyi gazetecilik posta kutunda!
Güncel haberler, haftalık ekonomi bülteni ve Pazar derginiz Plus’ı email olarak almak için abone olun.