İLKE ATİK TAŞKIRAN

İLKE ATİK TAŞKIRAN

Kodlanmış şefkat, nötrleştirilmiş adalet

Yapay zekâ destekli sohbet botları—özellikle OpenAI tarafından geliştirilen ChatGPT—yalnızca bilgi aktaran nötr araçlar değildir. Bu sistemlerin ürettiği her yanıt, basit bir veri aktarımının ötesinde; aynı zamanda bir yönlendirme, bir duygu inşası ve kimi zaman da etik bir pozisyon alış içerir.

Peki, ChatGPT gibi modeller toplumu hangi yöne doğru eğip biçimlendiriyor? Verdikleri yanıtlar, hangi kavramsal kodlara ve duygusal çerçevelere dayanıyor? Bu kodlanmış yönelimleri anlamanın en kestirme yolu, modele en sık sorulan sorulara ve bu sorulara verilen yapılandırılmış cevaplara yakından bakmaktan geçiyor.

ChatGPT’ye en sık yöneltilen soruların başında yaşam rehberliği arayışına dayalı cümleler geliyor:

“İşimde çok stres var, bırakmalı mıyım?”,

“Sevgilim beni sık sık küçümsüyor, ne yapmalıyım?”,

“Tükenmişlik yaşıyorum, bu normal mi?”

(OpenAI API Usage Reports, 2023; Gao et al., CHI Conference).

Bu tür sorulara verilen yanıtların temelinde, büyük ölçüde duygusal regülasyon, bireysel güçlenme, sınır koyma ve öz şefkat gibi bireysel psikolojiye dayalı kavramsal kodlar yer alıyor. Model, kullanıcının yaşadığı güçlükleri geçerli kılıyor, şefkatli bir dil benimsiyor ve çoğunlukla “kendi ihtiyaçlarınızı dinleyin”, “kendinize zaman tanıyın” gibi önerilerle süreci bireyin iç dünyasında çözmeye yönlendiriyor. Görünüşte destekleyici ve zararsız gibi duran bu yaklaşım, aslında yapısal meselelerin üzerini örten bir duygusal bireyciliği dijital alanda yeniden üretiyor.

Örneğin bir kullanıcı mobbinge maruz kaldığında, model “zorlu iş ortamlarıyla başa çıkmak için iletişimi güçlendirin” gibi nötrleştirilmiş ifadeler sunuyor. Bu tür yanıtlar, bireyin yaşadığı yapısal baskıyı görünmez kılıyor ve onu kişisel gelişim çerçevesine yerleştiriyor. ChatGPT burada bir “duygu regülatörü” gibi işliyor; krizleri yatıştırıyor ama ele almıyor. Psikolojik dayanıklılığı, yapısal sorunlara karşı sunulmuş esas çözüm gibi gösteriyor. Böylece model, neoliberal psikolojinin dijital arayüzü hâline geliyor; dayanıklı bireyler üretmeye çalışırken sistemin dönüştürülmesini konuşmuyor. Yanıtların dili, “hak talebi”ni değil, “uyum becerisi”ni inşa ediyor.

Etik ve ahlaki tartışma içeren sorular da kullanıcıların yapay zekâya yönelttiği en hassas konular arasında yer alıyor:

“Kürk giymek etik mi?”

“Eşcinsel evlilikler günah mı?”

“Hayvan deneyleri doğru mu?”

“Pornografi topluma zarar verir mi?”

(OpenAI Moderation Policy; Bender et al., FAccT Conference, 2021).

Bu tür sorulara verilen yanıtlar, bireysel özgürlük, rıza, çeşitlilik ve kapsayıcılık gibi evrensel gibi sunulan ama aslında liberal etik normları merkeze alıyor. Örneğin pornografi hakkındaki cevaplarda yapısal şiddet ya da endüstri eleştirisi yer almıyor; bunun yerine “kişisel tercihler söz konusuysa etik değildir demek zordur” gibi genel geçer ifadelerle meseleden uzaklaşıyor.

Etik farklılıkları “kişisel inanç” ya da “geleneksel bakış açısı” gibi kategorilere ayırıyor ve çoğu zaman marjinalleştiriyor. Alternatif kültürel veya kolektif etik sistemleri, bireysel özgürlük ilkesine aykırıymış gibi çerçeveliyor. Böylece görünürde çoğulcu olan bu yaklaşım, aslında tek bir etik çerçeveyi—liberal birey merkezli modeli—evrensel doğruların taşıyıcısı olarak sunuyor. Bu da dijital çağda bir tür ahlaki hegemonyanın algoritmik versiyonunu yaratıyor.

Tarihsel ve politik gerçeklere ulaşmak isteyen kullanıcılar,

“İsrail-Filistin çatışmasının tarihi nedir?”

“12 Eylül darbesi Türkiye’ye ne kaybettirdi?”

gibi sorular yöneltiyor (OpenAI Help Center; Schlesinger & O’Hara, Journal of Digital Ethics, 2023).

Bu tür sorulara verilen yanıtlar, tarihsel karmaşıklık, tarafsızlık, karşılıklı mağduriyet ve “her iki taraf da zarar gördü” gibi kavramsal kodlara dayanıyor. Politik pozisyon almaktan kaçınma refleksiyle biçimlenmiş bu dil, çoğu zaman baskın anlatıları yeniden üretiyor. Örneğin Filistin meselesi sorulduğunda “karmaşık tarihsel süreç”, “tarafların karşılıklı hak iddiaları” gibi ifadelerle işgalin adı anılmadan mesele eşitlenmiş bir çatışmaya dönüştürülüyor.

Bu tür yanıtlar, dijital objektifliğin ne kadar seçici olabileceğini gösteriyor. ChatGPT, mağdurun tarihsel sesi ile failin siyasal konumunu aynı zemine çekiyor ve adaleti “denge”yle ikame ediyor. “Herkesin kendi perspektifi var” gibi ifadeler, tarihsel sorumluluğun üzerini örtüyor. Bu dil, geçmişle yüzleşme, kolektif travma ve siyasi bellek açısından tehlikeli bir alan açıyor. Algoritmik tarafsızlık, burada politik bir pozisyona dönüşüyor: baskının adını anmamak, sessizliği çoğaltmak anlamına geliyor. Model, tarihi sterilize eden bir dijital anlatıcıya evriliyor.

Felsefi ve varoluşsal içerikli sorular da modele sıkça yöneltiliyor:

“Hayatın anlamı nedir?”

“Özgür irade var mı?”

“İnsan doğası kötücül müdür?”

(OpenAI Blog: Why People Ask ChatGPT About Life’s Big Questions, 2023; Vincent, The Verge).

Bu sorulara verilen yanıtlar, bireysel anlam üretimi, öznel doğrular, içsel yolculuk ve psikolojik denge gibi kavramlar etrafında şekilleniyor. Model, çeşitli filozoflardan alıntılar yapıyor; fakat çoğunlukla bireyin “kendi anlamını keşfetmesi” gerektiği fikrine bağlanıyor. Felsefi düşünce, kolektif sorgulama ve eyleme çağrı olmaktan uzaklaşıyor; kişisel huzurun bir enstrümanına dönüşüyor. “Sorgulamak”, dış dünyayı anlamak ya da dönüştürmek için değil, zihni rahatlatmak için yapılan bir pratik hâline geliyor. Modelin sunduğu felsefi duruş, düşünmenin değil, iyi hissetmenin hizmetine giriyor.

ChatGPT’nin günlük kullanımındaki artış, yalnızca bilgi arayışından değil; aynı zamanda duygusal boşlukları doldurma isteğinden de besleniyor. Kullanıcılar,

“Çok yalnızım, ne yapmalıyım?”

“Kendimi değersiz hissediyorum”

“Beni kimse anlamıyor” gibi duygusal yoğunluğu yüksek cümlelerle modele başvuruyor (Nass & Moon, 2000; Brandimarte et al., 2023; OpenAI User Research, 2024).

Bu etkileşimlerde model, empati simülasyonu, duygusal aynalama, yargılamayan dinleyici rolü ve sakinleştirici bir dil kullanıyor. Psikoterapötik dilin temel unsurlarını taklit ederek “Yalnız hissetmeniz anlaşılır”, “Bu duygularla baş etmek zor olabilir ama yalnız değilsiniz” gibi cümlelerle kullanıcıya yöneliyor. Ancak model bir terapist değil. Gerçek psikolojik destek sunmuyor; buna rağmen, özellikle ruh sağlığı hizmetlerine erişimi sınırlı bireyler için bir duygusal tampon hâline geliyor. Bu durum, profesyonel destek arayışını geciktirebiliyor. Yapay empati, geçici bir teselli sağlıyor; fakat içsel dönüşüm ya da duygusal yüzleşme yaratmıyor. Huang ve arkadaşlarının 2024’te Journal of Affective Computing’de yayımladığı bir çalışmaya göre, ChatGPT’nin yanıtları “duygusal doyum” sağlıyor; ancak “psikolojik ilerleme”ye katkı sunmuyor. Terapiye benziyor; fakat temelde bir algoritmik regülasyon aracı olarak işliyor. Bu da dijital çağın en sessiz dönüşümlerinden birini yansıtıyor: İnsanlar, artık anlaşılmak için insana değil, koda yöneliyor.

Tarafsız değil; özenle kodlanmış bir kültürel, ahlaki ve duygusal zemine oturuyor

Tüm bu kategorilerde açıkça görüldüğü gibi, ChatGPT’nin verdiği yanıtlar yalnızca bilgi temelli bir hizmet sunmakla kalmıyor; aynı zamanda bir değer sistemi, bir bakış açısı ve toplumsal bir konumlanma öneriyor. Model, her soruya verdiği yanıtla sadece çözüm önermiyor; bir dili, bir normu ve bir kültürel çerçeveyi yeniden üretiyor. Etik meselelerde belirli normları öne çıkarıyor, tarihsel sorularda politik pozisyonları nötralize ediyor, bireysel sorunlarda sistemsel bağlamı dışarıda bırakıyor, felsefeyi içsel huzura indiriyor ve duygusal destek arayan kullanıcıya algoritmik bir empati sunuyor.

Bu yönelimler, yapay zekâ yanıtlarının tarafsız değil; özenle kodlanmış bir kültürel, ahlaki ve duygusal zemine oturduğunu ortaya koyuyor. Model, açıkça ideolojik görünmeyen ama tercihlerle örülmüş bir dil aracılığıyla toplumsal düşünme biçimlerini sessizce ve sürekli biçimde şekillendiriyor. Kullanıcıya bir tercih alanı tanıyor; fakat bu alanın sınırlarını en baştan çiziyor. Bu nedenle ChatGPT gibi araçlara yalnızca “doğru bilgiye ulaşma” perspektifiyle yaklaşmak, bu sistemlerin toplumsal bilinç ve algı inşasındaki rolünü gözden kaçırmak anlamına geliyor.

Önceden kodlanmış cevaplar, düşünce özgürlüğünü yalnızca seçilmiş yollar arasında yön bulmaya mahkûm ediyor—ve tam da bu nedenle, ChatGPT’nin dili bir “kodlanmış şefkat” sunarken, toplumsal adalet arayışını sessizce nötrleştiriyor.

Önceki ve Sonraki Yazılar
İLKE ATİK TAŞKIRAN Arşivi