TEKNOLOJİ

"Fikir Hırsızı" yapay zeka! Skandalı Türk akademisyen ortaya çıkardı

Günümüzde gelişen teknolojiyle birlikte yapay zeka hayatımızın merkezine oturmuş durumda. Hemen hemen her konuda akıl aldığımız, merak ettiğimiz sorulara cevap aradığımız yapay zekanın olumsuz yanları da tartışma konusu. Doç. Dr. Yusuf Kızıltaş'ın ortaya çıkardığı skandalın ardından yapay zekanın "fikir hırsızı" olabileceği gündeme geldi.

Yapay zekaya emanet ettiğimiz bilgiler ne kadar güvende?

Doç. Dr. Yusuf Kızıltaş'ın SSCI indeksli bir dergiden aldığı hakemlik davetiyle ortaya çıkardığı skandal, bu soruyu bir kez daha tartışmaya açtı.

Kızıltaş, incelediği 3 makaleden 2'sinde kendisine atıf yapıldığını, diğerinde ise kendisine ait olan ancak henüz yayınlamadığı makalesiyle bire bir örtüşen bölümler olduğunu fark etti.

Dil kontrolü ve istatistik desteği için yapay zekâya emanet edilen makaleler, "asistan" sandığımız sistemler tarafından kopyalanıyor. Henüz yayınlanmamış başlıklar ve özgün bölümler, yapay zekâ havuzuna düşerek başka çalışmaların kaynağı hâline geliyor. Akademik mahremiyet artık büyük risk altında. Bu durum, akademik üretimde veri güvenliği ve gizlilik tartışmalarını yeniden alevlendirdi.

HENÜZ YAYINLANMAMIŞ MAKALEYİ KAYNAK GÖSTERDİ

Türkiye Gazetesi'nden Mahmut Özay'ın haberine göre olay, Doç. Dr. Yusuf Kızıltaş'ın SSCI indeksli prestijli bir dergiden aldığı hakemlik davetiyle gün yüzüne çıktı. Hakemlik yaptığı makalenin kaynakça bölümünü inceleyen Kızıltaş, kendi adına yapılmış atıflarla karşılaştı. Kaynakçada yer alan üç çalışmadan ikisinin kendisine ait olduğunu belirleyen araştırmacı, üçüncü çalışmanın ise gerçekte var olmadığını fark etti.

Asıl çarpıcı detay ise söz konusu "hayalet makale"nin başlık ve içeriğinin, Kızıltaş'ın o sırada henüz yayımlanmamış ve yalnızca sınırlı sayıda hakemin bildiği güncel çalışmasıyla bire bir örtüşmesiydi. Araştırmacının, bu çalışması için daha önce yapay zekâdan dil ve istatistik desteği aldığı öğrenildi. Yaşanan durum, yapay zekâ sistemlerinin akademik metinlerle kurduğu ilişkinin sınırlarını sorgulatır hâle getirdi.

İHLALDE YENİ BOYUT

Uzmanlara göre bu örnek, yapay zekânın yalnızca internette yer alan mevcut verileri harmanlamakla kalmadığını; kullanıcıların kendisine emanet ettiği gizli ve yayımlanmamış içerikleri de veri havuzuna dâhil ederek dönüştürebildiğini gösteriyor.

Bu süreç, "dijital mahremiyet ihlalinin yeni ve görünür bir boyutu" olarak tanımlanıyor. Yapay zekâ ile paylaşılan akademik metinler, yayımlanma süreci tamamlanmadan dolaylı yollardan ifşa edilme riskiyle karşı karşıya kalıyor.

Dünyanın önde gelen yayınevlerinden Elsevier, SAGE ve Taylor & Francis, yapay zekânın dil düzenleme süreçlerinde kullanılmasına şeffaf beyan şartıyla izin veriyor. Ancak son yaşanan hadise, bu kullanımın yalnızca etik bir tercih değil, aynı zamanda ciddi bir veri güvenliği problemi olduğunu da ortaya koydu.

Uzmanlar, bilimsel üretim süreçlerinde yapay zekâ desteği alan akademisyenleri çeşitli kritik noktalarda uyarıyor. Analiz veya düzeltme amacıyla sisteme yüklenen metinlerin, yapay zekâ tarafından “öğrenme malzemesi” olarak değerlendirilip veri havuzuna dâhil edilebileceği gerçeğinin göz ardı edilmemesi gerektiği vurgulanıyor.

Bu durumun doğurduğu en büyük güvenlik risklerinden biri ise, yapay zekânın araştırmacıların adına henüz yayımlanmamış ya da hiç var olmamış uydurma kaynaklar üreterek akademik itibarı ciddi biçimde tehlikeye atabilmesi.

Gelinen noktada bilimsel üretim sürecinin, yalnızca akademik etik kurallarıyla değil; kişisel verilerin korunması adına sıkı siber güvenlik protokolleriyle de desteklenmesi gerektiği ifade ediliyor.

"HAYALET KAYNAK" ÜRETİYOR

Yapay zekâ ile makale yazdırmanın etik dışı olmasının yanı sıra, sistemlerin en büyük risklerinden biri uzmanların çalışma alanlarını taklit ederek onlar adına “hayalet kaynaklar” üretmesi olarak öne çıkıyor.

Özellikle çok sayıda eseri bulunan araştırmacıların verilerinden beslenen yapay zekâ, son derece gerçekçi görünen ancak tamamen uydurma referanslar oluşturarak akademik güvenilirliği ciddi biçimde tehdit ediyor.