Medya devleri dijital tarihi neden kısıtlamak istiyor?

Dijital ekosistemin topyekûn kilitlenmesi kimsenin yararına değil. Hukuki kazanımların teknik vizyonla harmanlandığı hibrit "Veri Sendikası" modelleri, medyanın kendi geçmişini yakmadan geleceğini güvence altına almasının tek yolu.

VOLKAN KAHYALAR

Küresel medya devleri, yapay zeka şirketlerine karşı yürüttükleri varoluşsal telif savaşında strateji değiştirerek savunma hattını "bugünden" "geçmişe" çekti. 1990'ların sonundan itibaren arama motorları ile haber yayıncıları arasında kurulan simbiyotik ilişki, üretken yapay zeka botlarının yükselişiyle yerini tamamen parazitik bir veri emilimi modeline bıraktı. New York Times, CNN, Reuters gibi küresel aktörlerin başı çektiği bu süreçte, sektörün devleri için oyunun kuralları baştan yazılıyor. Nieman Lab verilerinin de işaret ettiği üzere; yayıncılar, sitelerindeki güncel içerikleri korumak için güvenlik duvarlarını yükseltip OpenAl ve Google'ın botlarını engelleseler de yapay zeka modellerinin "Arka Kapı" (Backdoor) olarak bilinen Internet Archive (Wayback Machine) üzerinden tarihsel veriyi çekmeye devam ettiği anlaşıldı. Bu durum, küresel medyanın yapay zekayı "aç bırakmak" uğruna kendi dijital hafızasını silmeyi göze aldığı benzeri görülmemiş bir "Yakıp Yıkma" (Scorched Earth) taktiğini devreye sokmasına neden oldu.

Paradoks: Geleceği kurtarmak için geçmişi kapatmak

Hikayenin merkezinde devasa ve acı verici bir paradoks yatıyor: Yayıncılar, gelecekteki lisanslama gelirlerini koruyabilmek için, araştırmacı gazeteciliğin en önemli kaynağı ve kamusal bir hafıza olan arşivlerini erişime kapatmak zorunda kalıyor. The New York Times, The Guardian ve Reddit gibi içerik devleri, yapay zeka ajanlarının telifli gazetecilik materyallerini hortumlamasını engellemek adına kendi "robots.txt" dosyalarına Internet Archive botlarını engelleyen komutlar ekleyerek sert bir izolasyon politikasına geçtiler. Kendi tarihlerini arşivlenmekten men etmeleri, aslında geçmişlerinin silinmesini garantilemeleri anlamına gelse de bu ticari mülkiyeti koruma güdüsünün temelinde "Veri Aklama" (Data Laundering) pratikleri yatıyor.

Ticari yapay zeka şirketleri, akademik araştırma veya "adil kullanım" argümanlarının arkasına sığınarak telifli eserleri toplayıp milyar dolarlık veri setlerine dahil ediyor. Toplanan bu veriler "aklandıktan" sonra ticari modelleri eğitmek için kullanılıyor ve ortaya çıkan ürün devasa bir kar aracına dönüşüyor. Yayıncıların kapısına kilit vurduğu şey, tam da bu endüstriyel gasp döngüsü sonucunu ortaya çıkartıyor.

Küresel YZ devlerinin "fair use" (adil kullanım) veya TDM istisnası altında trilyonlarca telifli veriyi bu şekilde kullanmasının geleneksel telif hukukunu öldürüp öldürmediğini, kurucusu olduğu İstanbul Barosu Bilişim Hukuku Merkezi‘nin (daha sonra komisyon) iki kez başkanlığını yapan Avukat M. Gökhan Ahi'ye sorduğumuzda şu çarpıcı tespiti yapıyor: "Telif hukuku ölmedi ama üzerine kurulduğu ekonomik mantık ciddi biçimde sarsıldı. 20. yüzyıl telif sistemi, eserlerin çoğaltılması ve dağıtılması üzerine kuruluydu. Yapay zeka ise eserleri çoğaltmıyor, aksine her bir eseri istatistiksel öğrenme verisine dönüştürüyor." Bu nedenle bugün yaşanan tartışmanın klasik kopyalama ve çoğaltma ihlali değil, kültürel üretimin ve birikimin devasa ölçekte emilmesi meselesi olduğunu belirten Ahi, Amerikan Telif Hakkı Ofisi’nin raporlarında geçen veri aklama tartışmalarının da bunu gösterdiğine işaret ediyor. Ahi'ye göre teknik istisnalar kullanılarak bir nevi ekonomik değer transferi gerçekleşiyor ve sonuçta telif hukuku ortadan kalkmasa da, artık eser koruma hukukundan çok eğitim verisi hukukuna evriliyor.

Toplumsal hafızanın intiharı ve Türkiye medyası için arşiv karartması

Bu "Arşiv Karartma" politikasının yarattığı ikincil hasar ise onarılamaz boyutlarda. İnternetin "açık kütüphane" olma vasfını yitirmesiyle birlikte, tarih yazımında devasa bir "sistematik önyargı" (systematic bias) tehlikesi baş gösteriyor. Veriler, saygın haber sitelerinin %60'ının yapay zeka ajanlarını ve arşiv botlarını engellediğini gösterirken, komplo teorisi yayan sitelerin ve kalitesiz içerik çiftliklerinin engelleme oranının %10'un altında kaldığını ortaya koyuyor. Bu da geleceğin yapay zeka algoritmalarının, insanlık tarihini teyitli kaynaklardan değil, kapılarını bilerek açık bırakan zehirli dezenformasyon sitelerinden öğreneceği anlamına geliyor.

Sitelerin Internet Archive’e erişimi kapatması yasal bir hak olsa da, bu durumun kamunun bilgi edinme hakkıyla ve tarihsel veriyle nasıl bir çatışma yarattığı konusunu Avukat Gökhan Ahi "dijital çağın en zor hukuk-felsefe sorularından biri" olarak tanımlıyor. Ahi, "Hukuken yayıncı içerik üzerinde mülkiyet hakkına sahiptir ve arşivlenmeyi engelleyebilir, buna hakkı var. Ancak gazetecilik, arşivcilik, yayıncılık aynı zamanda toplumsal hafıza üretir," diyerek dünyada belki de ilk kez özel mülkiyet ile kolektif tarih bilincinin doğrudan çatıştığını vurguluyor. Bu darboğazdan çıkış için öngördüğü muhtemel çözüm ise zorunlu erişimden ziyade, telif ödemesi karşılığında kamusal dijital arşiv lisanslaması. Fakat Ahi, burada yeni bir meselenin ortaya çıkacağı uyarısını da yapıyor: "O da kamusal hafızanın sürdürülebilir şekilde nasıl finanse edileceği."

Kendi arşiv altyapısı zayıf olan ve dijital belleğini üçüncü parti platformlara emanet eden Türkiye gibi ülkelerde ise bu kriz çok daha yakıcı. İngiltere veya Danimarka gibi ülkeler ulusal hafızalarını otonom web arşivleriyle korurken, Türkiye yapılandırılmış bir "Ulusal Web Arşivi" altyapısına sahip değil. Bu yapısal zayıflığın ve hafıza erozyonunun en somut örneği Radikal gazetesi vakası. 20 yıllık gazetecilik emeği, hiçbir açıklama yapılmaksızın ticari bir kararla tek tuşla buharlaştı ve Türkiye'nin yakın siyasi tarihine ışık tutan devasa koleksiyon silindi. Türkiye medyası, yapay zeka botlarını Wayback Machine gibi platformlardan engellerken kendi arşivlerini koruyacak alternatifler inşa edemezse, geçmiş tamamen "sterilize edilmiş" resmi söylemlere veya botlara açık yalan haber sitelerine terk edilecek.

Bu noktada Avrupa Birliği'nde AI Act yürürlüğe girerken, Türkiye’de yalnızca mevcut FSEK ile bu süreci yönetmenin mümkün olup olmadığını irdelemek gerekiyor. Avukat Gökhan Ahi'ye göre 5846 sayılı FSEK güçlü bir eser koruma kanunu olmasına rağmen eski ve bir türlü teknolojik gelişmelere uyum sağlayamamış bir kanun. YZ çağındaki esas sorunun, ihlal sonrası koruma ve hak alma değil, modellerin eğitimi sırasında gerçekleşen değer aktarımı olduğunu belirten Ahi, FSEK'in genelde ihlal olduğunda devreye girdiğini, oysa yapay zekanın ihlal olup olmadığı bile tartışmalı gri bir alan yarattığını söylüyor. "Avrupa Birliği AI Act ile doğrudan telif düzenlemesi yapmadı, ancak şeffaflık, veri seti açıklama yükümlülüğü ve telif uyum mekanizmaları getirerek fiilen yeni bir denge kurmaya çalıştı. Türkiye’de yalnızca FSEK’e dayanarak bu kadar büyük ölçekli verinin emilimini kontrol etmek zor," diyen Ahi, orta vadede yapay zeka eğitim verisine ilişkin özel düzenlemelerin yapılmasının zorunlu göründüğünü aktarıyor. YZ eğitimi için opt-in mi yoksa opt-out modeli mi Türk hukukuna entegre edilmeli tartışmasını ise bir ülkenin teknoloji politikası tercihi olarak görüyor: "Opt-out modeli inovasyonu hızlandırır çünkü her üretim varsayılan olarak eğitim verisi haline gelir. Ancak bu yaklaşım yaratıcı sektörleri fiilen ücretsiz veri sağlayıcısına dönüştürür ve uzun vadede geliri düşük ve tercih edilmeyen sektörler haline getirir. Opt-in modeli ise hak sahiplerini korur fakat uygulanması teknik olarak daha zor ve maliyetlidir." Ahi, Türkiye açısından dengeli bir yaklaşım öngörülmesi gerektiğini, kısa vadede güçlü bir opt-out hakkı ve veri seti şeffaflığı, uzun vadede ise lisans temelli opt-in modeline geçiş olabileceğini zira meselenin yapay zekanın sınırlandırılmasından ziyade değer paylaşımını adil hale getirmek olduğunu vurguluyor.

Çıkış yolu: Dijital veri egemenliği ve hibrit modeller

Bu krizin sadece bir tespit düzeyinde kalmaması, sektörün "Dijital Veri Egemenliğini" koruyabilmesi için teknik ve stratejik bir yol haritasına ihtiyacı var. Hem yapay zekaya karşı telif hakkını koruyan hem de kamusal arşivleri açık tutmayı sağlayan hibrit modeller, yayıncılığın tek çıkış bileti. News Corp, Axel Springer veya Associated Press (AP) gibi küresel devler, yapay zeka şirketleriyle kapalı kapılar ardında milyon dolarlık API lisans anlaşmaları yapsa da, orta ve küçük ölçekli yayıncılar için hayatta kalmanın yolu "Veri Sendikaları" (Data Syndicates) ve "Kontrollü Erişim Protokolleri"nden geçiyor.

Peki, Türk yayıncılar için “Veri Sendikaları” veya veri tröstleri mümkün mü? Avukat Gökhan Ahi'ye göre bu konuda hukuki hiçbir engel yok, esas sorun kurumsal modelin henüz netleşmemiş olması. "Türkiye’de müzik sektöründe yıllardır çalışan kolektif hak yönetim yapıları zaten var," diyen Ahi; MÜYAP, MSG veya MESAM gibi kuruluşları örnek göstererek, binlerce hak sahibinin eserlerini tek tek takip etmek yerine toplu lisanslama yapıldığına ve gelir dağıtımı gerçekleştirildiğine dikkat çekiyor. YZ şirketlerinin tek tek gazetecilerle pazarlık yapmak istemediğini, ölçeği büyük muhataplar aradığını dile getiren Ahi, veri sendikası modelinin vizyonunu şöyle çiziyor: "Yayıncılar içeriklerini KVKK uyumlu biçimde ortak bir havuzda toplar, kullanım şartlarını belirler ve yapay zeka şirketlerine toplu eğitim lisansı verir. İsteyen verisini havuz dışında bırakabilir. Böylece bireysel dava ekonomisi yerine kolektif bir lisans ekonomisi doğar." Müzik ve yayıncı meslek birliklerinde bu farkındalığın oluştuğunu ancak henüz nereden başlanacağı konusunda ortak bir uzlaşı olmadığını gözlemlediğini aktaran Ahi, yapay zeka çağında klasik telif birliklerinin kendilerini YZ eğitim lisanslama kuruluşlarına dönüşecek şekilde genişletmelerinin ilk adım olması gerektiğini belirtiyor.

Bu noktada, TollBit gibi sistemlerin sunduğu "Bot Ödeme Duvarları" (Bot Paywalls) yayıncılara güçlü bir savunma hattı sağlıyor. Bu altyapılar sayesinde yayıncılar, izinsiz kazıyıcıları kendi belirledikleri bir "gişeye" yönlendirerek, botun kimliğine ve erişmek istediği içeriğe göre şeffaf mikro-lisanslama kuralları koyabiliyor. Dahası, ProRata Al gibi girişimler tamamen sürekli ve adil bir gelir paylaşımı modeli sunuyor. Geliştirilen "Fraksiyonel Atıf Teknolojisi", oluşturulan yanıtta hangi yayıncının içeriğinin kullanıldığını kriptografik olarak takip ediyor ve elde edilen gelirin tam %50'sini kaynağı kullanılan yayıncılara milimetrik bir adaletle dağıtıyor. Bu sistemler, "veri aklama" sorununu ortadan kaldırarak güvenli bir veri sendikası yaratıyor.

Bu mikro-lisanslama modellerinin telif savaşlarını sona erdirip erdiremeyeceği konusuna Gökhan Ahi'nin bakışı son derece net. Bu modellerin telif hukukunun geleceğini ve gideceği yönü gösterdiğini vurgulayan Ahi, "Klasik sistemde önce ihlal gerçekleşir, buna karşılık ihtar edilir, hak talebi yapılır, olmazsa dava açılır, yıllar sonra tazminat belirlenir. Mikro-lisanslama ve akıllı kontrat temelli API anlaşmaları ise kullanım gerçekleştiği anda telifin otomatik dağıtılmasını hedefliyor," diyor. Bu yaklaşımı, yapay zeka şirketleri ile içerik üreticileri arasındaki çatışmayı azaltabilecek en gerçekçi uzlaşma modeli olarak gören Ahi, bunu müzik sektöründeki korsan tartışmalarının yerini alan Spotify ve DistroKid gibi altyapılara benzetiyor: "Yani müzik sektörü davalarla değil, teknik lisans altyapılarıyla barış yaptı. ProRata AI veya TollBit’in önerdiği model de benzer bir mantığa dayanıyor. Yapay zeka sistemi bir içeriği kullandığında, bu kullanım ölçülüyor, atıf yapılıyor ve gelir otomatik paylaşılıyor."

Türkiye medyasının dijital mülkiyetini koruyabilmesi için spontan refleksleri bir kenara bırakması şart. Gazeteci ve dijital medya yayın yönetmeni Emre İlkan Saklıca'nın da uyardığı gibi: "Kolektif bir bilinç oluşturmadan burada ortak pazarlık gücü üretmek zor. Belki bütün medyanın dahil olacağı bir yapı olmasa da alternatif olarak tanımlayacağımız medyanın tek bir vücut halinde hareket etmesi sonuç almayı daha da kolaylaştırır... Uluslararası gazetecilik örgütlerinin de katkısı ile ortak akıl oluşturmak ve çözümler için masada olmak göz ardı edilmemesi gereken bir şey."

Dijital ekosistemin topyekûn kilitlenmesi kimsenin yararına değil. Hukuki kazanımların teknik vizyonla harmanlandığı hibrit "Veri Sendikası" modelleri, medyanın kendi geçmişini yakmadan geleceğini güvence altına almasının tek yolu.

Volkan Kahyalar, araştırmacı gazetecidir. Dijital haklar, veri gazeteciliği, dezenformasyonla mücadele ve teknoloji-toplum ilişkisi üzerine uzmanlaştı. Teyit.org, NewsLabTurkey, Journo, Bianet, Daktilo1984 ve İST Dergi gibi platformlarda araştırma dosyaları, analizleri ve söyleşileri yayımlandı. “Kitap Dedektifiyiz” platformunun kurucularından olan Kahyalar, özellikle kriz anlarında bilgi ekosistemi ve dijital arşivlerin korunması üzerine çalışmalar yürütüyor.

Özel Haber Haberleri