Zıplanacak içerik
  • Üye Ol

Önerilen İletiler

  • Admin
Gönderi tarihi:

Yeni araçlar, değiştirilmiş fotoğrafları ve videoları tespit etmek için yapay zekanın 'parmak izlerini' kullanıyor

Yapay zeka ağları daha yetenekli ve erişimi daha kolay hale geldikçe, dijital olarak manipüle edilmiş "deepfake" fotoğraf ve videoları tespit etmek giderek zorlaşıyor. New York Eyalet Üniversitesi, Binghamton Üniversitesi tarafından yönetilen yeni bir araştırma, frekans alanı analiz tekniklerini kullanarak görüntüleri parçalara ayırıyor ve yapay zeka tarafından üretildiklerini gösterebilecek anormallikleri arıyor.

artificial-intelligence-3048957.jpg

Disruptive Technologies in Information Sciences VIII'de yayınlanan bir makalede, Binghamton Elektrik ve Bilgisayar Mühendisliği Bölümü'nden doktora öğrencisi Nihal Poredi, Deeraj Nagothu ve Profesör Yu Chen, uzun parmaklar veya anlamsız arka plan metni gibi görüntü manipülasyonunun açıklayıcı işaretlerinin ötesinde gerçek ve sahte görüntüleri karşılaştırdı. Ayrıca makale üzerinde Virginia Eyalet Üniversitesi'nden yüksek lisans öğrencisi Monica Sudarsan ve Profesör Enoch Solomon da işbirliği yaptı.

Ekip, Adobe Firefly, PIXLR, DALL-E ve Google Deep Dream gibi popüler üretken yapay zeka araçlarıyla binlerce görüntü oluşturdu ve ardından bunları sinyal işleme tekniklerini kullanarak analiz etti, böylece frekans alanı özellikleri anlaşılabildi. Yapay zeka tarafından oluşturulan ve doğal görüntülerin frekans alanı özelliklerindeki fark, bunları bir makine öğrenimi modeli kullanarak ayırt etmenin temelini oluşturur.

Generative Adversarial Networks Image Authentication (GANIA) adlı bir araç kullanılarak görüntüler karşılaştırıldığında, araştırmacılar yapay zekanın sahteleri oluşturma şekli nedeniyle anormallikleri (eserler olarak bilinir) tespit edebilirler. Yapay zeka görüntüleri oluşturmanın en yaygın yöntemi, dosya boyutlarını büyütmek için pikselleri klonlayan ancak frekans alanında parmak izleri bırakan yukarı örneklemedir.

Chen, "Gerçek bir kamerayla fotoğraf çektiğinizde, tüm dünyadan bilgi alırsınız; yalnızca fotoğrafını çekmek istediğiniz kişiden, çiçekten, hayvandan veya nesneden değil, her türlü çevresel bilgi oraya gömülür," dedi.

"Üretici yapay zeka ile görüntüler, ne kadar ayrıntılı olursanız olun, ondan oluşturmasını istediğiniz şeye odaklanır. Örneğin, hava kalitesinin ne olduğunu veya rüzgarın nasıl estiğini veya arka plan öğeleri olan tüm küçük şeyleri tanımlamanın bir yolu yoktur."

Nagothu, "Birçok yeni AI modeli ortaya çıksa da, bu modellerin temel mimarisi çoğunlukla aynı kalıyor. Bu, içerik manipülasyonunun öngörücü doğasından yararlanmamızı ve onu tespit etmek için benzersiz ve güvenilir parmak izlerinden yararlanmamızı sağlıyor." diye ekledi.

Araştırma makalesi ayrıca GANIA'nın bir fotoğrafın AI kökenlerini belirlemek için nasıl kullanılabileceğinin yollarını da araştırıyor ve bu da deepfake görüntüler aracılığıyla yanlış bilginin yayılmasını sınırlandırıyor.

Poredi, "Farklı AI görüntü oluşturucuları için 'parmak izlerini' tanımlayabilmek istiyoruz." dedi. "Bu, görsel içeriği doğrulamak ve yanlış bilgi kampanyalarıyla ilişkili herhangi bir olumsuz olayı önlemek için platformlar oluşturmamızı sağlayacak."

Ekip, deepfake görüntülerin yanı sıra, sahte AI tabanlı ses-video kayıtlarını tespit etmek için bir teknik geliştirdi. "DeFakePro" adlı geliştirilen araç, elektrik şebekesindeki hafif elektriksel dalgalanmalar sonucu oluşan elektrik şebekesi frekansı (ENF) sinyali adı verilen çevresel parmak izlerinden yararlanıyor. Hafif bir arka plan uğultusu gibi, bu sinyal kaydedildikleri zaman medya dosyalarına doğal olarak gömülüyor.

DeFakePro aracı, kayıt zamanına ve yerine özgü olan bu sinyali analiz ederek kaydın gerçek olup olmadığını veya kurcalanıp kurcalanmadığını doğrulayabilir. Bu teknik, deepfake'lere karşı oldukça etkilidir ve ayrıca bu tür yapay zeka tabanlı sahtecilik saldırılarına karşı büyük ölçekli akıllı gözetim ağlarını nasıl güvence altına alabileceğini araştırır. Yaklaşım, giderek daha fazla bağlantılı hale gelen dünyamızda yanlış bilgi ve dijital dolandırıcılığa karşı mücadelede etkili olabilir.

Poredi, "Yanlış bilgi, küresel toplumun bugün karşı karşıya olduğu en büyük zorluklardan biridir," dedi. "Üretici yapay zekanın birçok alanda yaygın kullanımı, kötüye kullanılmasına yol açtı. Sosyal medyaya olan bağımlılığımızla birleştiğinde, bu bir yanlış bilgi felaketi için bir patlama noktası yarattı. Bu, özellikle sosyal medya ve konuşma üzerindeki kısıtlamaların asgari düzeyde olduğu ülkelerde belirgindir. Bu nedenle, çevrimiçi olarak paylaşılan verilerin, özellikle görsel-işitsel verilerin akıl sağlığını sağlamak zorunludur."

Üretici yapay zeka modelleri kötüye kullanılmış olsa da, görüntüleme teknolojisinin ilerlemesine de önemli ölçüde katkıda bulunurlar. Araştırmacılar, halkın sahte ve gerçek içerik arasında ayrım yapmasına yardımcı olmak istiyor; ancak en son yenilikleri takip etmek zor olabilir.

"Yapay zeka o kadar hızlı hareket ediyor ki, bir deepfake dedektörü geliştirdiğinizde, bu yapay zeka aracının bir sonraki nesli bu anormallikleri hesaba katıyor ve düzeltiyor," dedi Chen. "Çalışmamız, alışılmışın dışında bir şeyler yapmaya çalışıyor."

Kaynak: Tech Xplore

Bir hesap oluşturun veya yorum yazmak için giriş yapın

Yorum yapmak için üye olmak zorundasınız...

Bir Hesap Oluşturun

Forumumuzda üyelik çok basit ve ücretsizdir!

Yeni Bir Hesap Oluşturun

Giriş Yap

Hali hazırda bir hesabınız var mı? O zaman Giriş Yapın.

Giriş Yapın
×
×
  • Yeni Oluştur...

Önemli Bilgiler

Bu siteyi kullanmaya başladığınız anda kuralları kabul ediyorsunuz Kullanım Koşulu.