Sosyal medya akımları bitmiyor; biri sona ermeden yenisi başlıyor! ‘Simpson’ ve ‘Ghibli’ furyasından sonra yine yapay zeka ile oluşturulan ‘aksiyon figürü akımı’ gündemde. Renkli ve eğlenceli gibi görünen bu akımın perde arkasında ise ciddi riskler yatıyor.
Son günlerde sosyal medyada hızla yayılan ‘Barbie ambalajı’ tarzındaki aksiyon figürü yapay zeka görselleri, dijital estetiğin geldiği noktayı gözler önüne seriyor. Ünlülerden, bireysel kullanıcılara kadar herkes bu akıma kapılmış durumda. Ancak bu renkli ve eğlenceli görüntülerin arka planında ciddi bir güvenlik sorunu yatıyor.
Şu an bu tarz içerikleri üretmekte başı çeken uygulamalar arasında Remini, Lensa AI, Picsart AI ve Photoleap gibi mobil tabanlı yapay zeka destekli görsel editörler var. Bazıları yüzü daha gerçekçi işlerken, bazıları estetik filtreler ve sahne efektleri konusunda daha başarılı.
Aynı hizmeti sunuyor gibi görünseler de kullandıkları aksiyon figürü yapay zeka modelleri, veri işleme politikaları ve ücretli içerik stratejileri ciddi farklılıklar gösterebiliyor. Yani kullanıcı deneyimi ve güvenlik açısından hepsi aynı değil.
Peki, bu uygulamaları bu kadar cazip kılan ne? Verilerimiz bu sistemlerde ne kadar güvende? Estetik bir trend gibi görünen bu durum aslında dijital dünyada daha büyük bir dönüşümün işareti olabilir mi?
Prof. Dr. Ali Murat Kırık tarafından, kişinin de yapay zekâ aracılığıyla oluşturulduğu çalışmalar BU GÖRSELLERİ OLUŞTURMAK İÇİN NE TÜR BİLGİLER İSTENİYOR?
Marmara Üniversitesi İletişim Fakültesi Görsel İletişim Tasarımı Anabilim Dalı Başkanı ve Bilişim Teknolojileri Uzmanı Prof. Dr. Ali Murat Kırık, “Genelde uygulamalar yüz fotoğrafı, yaş, cinsiyet, bazen de estetik tercihler gibi kişisel veriler talep ediyor. Bu veriler, görseli işleyip ‘kişiselleştirilmiş’ bir sonuç üretmek için kullanılıyor” dedi.
‘BİLGİLER SİLİNİYOR GİBİ GÖZÜKÜYOR AMA BULUT SİSTEMLERDE SAKLANIYOR’
“Ancak bu bilgiler çoğu zaman bulut sistemlerde saklanıyor ve verilerin nerede, ne kadar süre tutulduğu şeffaf değil” diyen Prof. Dr. Ali Murat Kırık, “Bazı uygulamalar veriyi işler işlemez siliyor gibi görünse de aslında kullanım koşullarına gizlenmiş uzun vadeli saklama izinleriyle verileri ellerinde tutabiliyorlar” ifadelerini kullandı.
Siber güvenlik şirketi Parameter Security’nin CEO’su Dave Chronister, HuffPost’a yaptığı açıklamada, “Hayatınızda en çok önem verdiğiniz üç ya da dört şeyi açıkça paylaşmak büyük bir risk oluşturur. Çünkü bu tür bilgiler, sizi hedef almak isteyen kişiler için değerli bir kaynaktır” dedi.
BU TARZ VERİLER İLK BAKIŞTA MASUM GİBİ DURUYOR AMA…
Bu uygulamalar üzerinden bilgi paylaşımının siber saldırılar ya da dolandırıcılık için risk oluşturduğunun altını çizen Prof. Dr. Ali Murat Kırık, “Yüz verisi, biyometrik bir veri olduğu için en hassas bilgilerden biri. Yüzünüzden oluşturulan bir yapay zeka portresi, kimlik doğrulama sistemlerinde kullanılabilecek sahte kimlikler üretmekte kullanılabilir. Ayrıca yapay zeka destekli ses ve video üretimiyle birleştirildiğinde deepfake dolandırıcılıklarına zemin hazırlar. Özellikle sosyal medyada bu görselleri paylaşmak, kötü niyetli kişiler için bir veri havuzu oluşturuyor” uyarısında bulundu.
MAĞDUR OLAN İNSANLAR VAR MI?
“Örneğin Çin’de yüz tanıma sistemleriyle banka hesabı açmak gibi işlemler yaygınlaştıkça, sosyal medyada paylaşılan yüz görselleriyle kimlik sahtekarlıkları yaşandı” diyen Prof. Dr. Ali Murat Kırık, “Hindistan’da ise bir kullanıcı, yüzünü bir avatar uygulamasına yükledikten sonra kendi görüntüsünün müstehcen içeriklerde kullanıldığını fark etti. Türkiye’de de dolandırıcılık şikayetlerinde yapay zeka üretimi sahte profil fotoğraflarının kullanıldığı olaylar artıyor” dedi.
BU İÇERİKLER ASKERİ YA DA KURUMSAL YAPAY ZEKA EĞİTİMİNDE KULLANILABİLİR Mİ?
Stanford Üniversitesi İnsan Merkezli Yapay Zeka Enstitüsü’nden gizlilik uzmanı Jennifer King ise, bu görsellerin gelecekteki yapay zeka modellerinin eğitilmesinde kullanılabileceğini ve bu teknolojilerin giderek daha fazla kurumsal ve askeri alanlara entegre edildiğini hatırlattı. Bu ne kadar gerçekçi?
Bu soruma “Bu uyarı hiç de uzak bir ihtimal değil” cevabını veren Prof. Dr. Ali Murat Kırık, şu bilgilerin altını çizdi:
“Yapay zeka sistemleri, ne kadar çok ve çeşitli veriyle eğitilirse o kadar güçleniyor. Kullanıcılar uygulamalara izin verirken, verilerinin üçüncü taraflarla paylaşılabileceğine dair maddelere onay veriyorlar ama çoğu zaman bunu fark etmiyorlar. Bu görseller daha sonra algoritmaların eğitilmesinde, yüz tanıma teknolojilerinde, hatta güvenlik ve izleme sistemlerinde kullanılabilir. Aslında insanlar fark etmeden veri setlerine katkı sağlıyor.”
NELERE DİKKAT EDİLMELİ?
Çoğu kullanıcının gizlilik politikalarını okumadan bu uygulamaları kullandığını söyleyen Prof. Dr. Ali Murat Kırık, 5 kritik noktaya dikkat çekti:
“Yapılması gereken ilk şey, uygulamanın verileri nerede ve ne kadar süre sakladığına bakmak. Üçüncü taraflarla paylaşım yapıp yapmadığını öğrenmek. Yüksek çözünürlüklü yüz görselleri yerine düşük kaliteli ya da filtreli görseller kullanmak, uygulamalara erişim izinlerini sınırlamak ve mümkünse telefon galerinize erişim izni vermemek” dedi.
BU ALANDA YASAL DÜZENLEMELER VAR MI, YOKSA HUKUK BU TEKNOLOJİLERİN GERİSİNDE Mİ KALIYOR?
“Maalesef çoğu ülke, bu teknolojilerin gelişim hızına yetişemiyor. Avrupa Birliği, Dijital Hizmetler Yasası ve Yapay Zeka Yasası gibi adımlar atsa da çoğu ülkede yüz verisiyle çalışan uygulamalara özel düzenlemeler hâlâ yetersiz” diyen Prof. Dr. Ali Murat Kırık, “Türkiye’de de KVKK bazı temel haklar sağlasa da, mobil uygulamalara özgü detaylı bir denetim mekanizması yok. Önümüzdeki yıllarda, özellikle biyometrik veri güvenliği konusunda daha sıkı ve uluslararası uyumlu yasaların gelmesi kaçınılmaz gibi görünüyor” şeklinde konuştu.
Bazı uzmanlar ise kullanıcıları, figürlerinde ticari markalara ait logoları kullanırken dikkatli olmaları konusunda uyardı. Avukat Charles Gallagher, Fox13’e yaptığı açıklamada, “Mattel gibi şirketler, markalarını koruma konusunda oldukça aktif. Aksiyon figürünüzde bir Barbie logosu kullanmanız hukuki sorunlara yol açabilir” dedi.