Doç. Dr. Yılmaz yapay zekâ ile dolandırıcılığı anlattı: Kendilerini kadın olarak tanıtıp deepfake ile insanları dolandırıyorlar

Doç. Dr. Yılmaz yapay zekâ ile dolandırıcılığı anlattı: Kendilerini kadın olarak tanıtıp deepfake ile insanları dolandırıyorlar
Yapay zekânın iyi olduğu kadar kötü amaçlarla da kullanılabileceğini dile getiren Doç. Dr. Abdurrahman Yılmaz, "Deepfake, yapay zekâ ve dolandırıcılık ilişkisinde önemli bir kavram. Burada sesin, hem görüntünün ve videonun benzer bir şekilde üretilmesi hem de mevcut görüntünün değiştirilmesi söz konusu" dedi.

Beykent Üniversitesi Fen Edebiyat Fakültesi Sosyoloji Bölümü'nden Öğretim Üyesi Doç. Dr. Abdurrahman Yılmaz, yapay zekâya dair değerlendirme ve uyarılarda bulundu.

Yapay zekânın insana özgü bazı niteliklere sahip bir yazılım olduğunu söyleyen Yılmaz, "Bu niteliklerin başında da öğrenme geliyor. Algılama, iletişim kurabilme, muhakeme yetkisi ve karar verme gibi nitelikler yapay zekâyı bilinen sıradan yazılımlardan farklı kılıyor. Dünya olarak önemli bir yol ayrımındayız; yapay zekâ acaba insanların refahını artıracak ve daha adil paylaşımı sağlayacak bir araç mı olacak yoksa gelir ve diğer eşitsizlikleri artıracak bir teknolojik güç mü olacak" diye konuştu.

Yapay zekâ ile ilgili Türkiye'de de TÜBİTAK merkezli çalışmalar yapıldığını anlatan Yılmaz, "Ama bu noktada nerede olduğumuzu söylemek şu an için mümkün değil. Yapay zekâ ülkelerin geleceği ile ilgili önemli bir teknoloji; Türkiye'nin yazılım alanında geri kalmaması gerektiği gibi bu alanda da geri kalmaması gerekiyor" dedi.

"Ayrıca suç önleme temelinde geliştirilen programlar, yapay zekanın yüzde 90 oranında suçu önlediğini söylüyor" diyen Yılmaz, yapay zekânın suçun aydınlatılması ve suça yönelik tedbir alınmasında yardımcı olabildiğini ifade etti.

"Siyasette rakipleri saf dışı bırakmak için kullanılabiliyor"

"Teknolojik açıdan büyük bir güç olan yapay zekâyı nasıl kullanacağımız çok önemli" diyen Yılmaz, dolandırıcıların da bunu kullandığına dikkat çekti.

Endüstri, sanayi birçok alanda yapay zekâ ile iyi işler başarıldığını ve iyi işlerde kullanıldığını savunan Yılmaz, şöyle konuştu: "Fakat suçlar için de önemli bir teknolojik avantaj sağlıyor. Yapay zekâ esasında çok büyük bir güç ve bu gücü elinde bulunduran, iyi şeyler için de kötü şeyler için de kullanabilir. Günümüzde yapay zekâyı en çok ses ve görüntüyü işleme, sahte içerikler üretme ve bunları farklı amaçlarda kullanma durumlarında görüyoruz. Yapay zekâ, siyasette rakipleri saf dışı bırakmak için de kullanılabiliyor, ekonomide firmalar arası rekabette kullanılabiliyor. Bilinçli olan kesim haberin ne amaçla yapıldığını anlayabiliyor ama yine de bir haber yayıldıktan sonra bunun yanlış olduğunu insanlara anlatmak oldukça zor."

"Deepfake, yapay zekâ ve dolandırıcılık ilişkisinde önemli bir kavram"

"Yapay zekânın kullanıldığı hali hazırda görmekte olduğumuz ve ilerleyen zamanlarda daha çok karşılaşacağımız dolandırıcılık türleri var" diyen Yılmaz, sözlerine şöyle devam etti:

"Bunlardan birincisi romantizm dolandırıcılığı diye adlandırılan dolandırıcılık türü. Sosyal medyadan ya da çeşitli platformlardan tanışan kişiler arasında duygusal bağ kurulmasıyla oluşan bu türde, sevgililiğe doğru ilerleyen bir ilişki sürecinde maddi olarak kişiden istifade edilir. "Tinder avcısı" ismindeki belgeselde de bahsi geçen konu gayet net bir şekilde anlatıldı. Amerika'da ve Avrupa'da orta yaş üstü kadınları hedef alan ve FBI'ın radarında da olan romantizm dolandırıcılığında 2021 yılının resmi rakamlarına göre yaklaşık 1 milyar dolar kayıp olmuştur.

"İkincisi, sosyal mühendislik dolandırıcılığıdır. Burada ise bir kurgu ile insanlara rol veriliyor ve o rolü oynaması sağlanıyor. Böylelikle Türkiye'de gördüğümüz örneklerde dolandırıcılar kendisini savcı ve polis olarak tanıtıyor ve insanlardan maddi menfaat elde etmeye çalışıyorlar.

"Deepfake, yapay zekâ ve dolandırıcılık ilişkisinde önemli bir kavram. Burada sesin, hem görüntünün ve videonun benzer bir şekilde üretilmesi hem de mevcut görüntünün değiştirilmesi söz konusu. Deepfake günlük hayatta, dolandırıcılık başta olmak üzere birçok durumda kullanılabilir. Örneğin; dolandırıcılar, yakınınızın sesini taklit ederek onun kaçırıldığına sizi ikna edebilir ve fidye isteyebilir. Gerçekte böyle bir olay yokken deepfake teknolojisiyle insanlara gerçekmiş gibi yansıtılabilir.

"Tatil rezervasyonlarında tuzağa düşmeyin"

"Kendilerini kadın gibi tanıtan dolandırıcılar hazırladıkları yapay zekâ görüntüleri konuşturarak insanları kandırıyor ve karşı tarafın kamerasını açmasını sağlayıp görüntülerini kaydederek şantaj yoluyla para isteyebiliyor.

"Dolandırıcılığın dördüncü türünü tatil rezervasyonlarında görebiliriz. İnsanlar tatil için rezervasyon yaptırıyor ama öyle bir tatil köyü yok ya da öyle bir tatil köyü var ama rezervasyon sahte. Bunun gibi olaylar deepfake ile daha kolay yapılabilecek bu yüzden uyarıda bulunmak gerek; tatil imkânlarının gittikçe pahalı hale gelmesi insanları farklı alternatiflere yöneltiyor. Bu alternatifleri ararken tuzağa düşmemek adına dikkatli olmak gerekiyor.

"Geçtiğimiz günlerde Pentagon'da bomba patladığı haberi yapıldı. Bu haber yapay zekâ ile üretilmiş bir görüntü ile desteklendi. Ardından Twitter'daki onaylı mavi tiklerle yayıldı ve o esnada Amerikan borsaları çöktü. Birkaç dakika sonra yapay zekâ ürünü olduğu ve bir operasyon yapıldığı anlaşıldı. Bunun gibi manipülasyonları Türkiye'de de görebiliriz, dikkatli olmamız gerekiyor." (DHA)

Teknoloji