Birkaç yıl önce, derin sahtekarlıklar, yapımcıları ciddi bilgi işlem gücüne dayanan yeni bir teknoloji gibi görünüyordu. Bugün, derin sahtekarlıklar her yerde bulunur ve yanlış bilgilendirme, bilgisayar korsanlığı ve diğer kötü amaçlar için kötüye kullanılma potansiyeline sahiptir.
Intel Labs, büyüyen bu sorunu gidermek için gerçek zamanlı derin sahte algılama teknolojisi geliştirdi. Intel’de kıdemli araştırma bilimcisi olan İlke Demir, derin sahtekarlıkların arkasındaki teknolojiyi, Intel’in tespit yöntemlerini ve bu tür araçları geliştirirken ve uygularken dikkate alınması gereken etik konuları açıklıyor.
Ayrıca: AI etik uzmanı, bugünün AI patlaması, şimdi harekete geçmezsek sosyal sorunları büyütecek diyor
Deepfake’ler, aktörün veya eylemin gerçek olmadığı, yapay zeka (AI) tarafından yaratıldığı videolar, konuşmalar veya görüntülerdir. Deepfakes, son derece gerçekçi ve inandırıcı içerik oluşturmak için üretken rakip ağlar, varyasyonel otomatik kodlayıcılar ve diğer AI modelleri gibi karmaşık derin öğrenme mimarilerini kullanır. Bu modeller sentetik kişilikler, dudak senkronizasyonu videoları ve hatta metinden görüntüye dönüşümler üretebilir ve bu da gerçek ve sahte içerik arasında ayrım yapmayı zorlaştırır.
Deepfake terimi bazen, eski Meclis Başkanı Nancy Pelosi’nin sarhoş görünmesi için üzerinde oynanmış 2019 videosu gibi, değiştirilmiş özgün içerikler için kullanılır.
Demir’in ekibi, makinelerin ürettiği sentetik içerik biçimleri olan hesaplamalı deepfake’leri inceliyor. “Deepfake olarak adlandırılmasının nedeni, üretken yapay zekada tüm bu içeriği yaratan bu karmaşık derin öğrenme mimarisinin bulunmasıdır” diyor.
Ayrıca: Bir ankete göre çoğu Amerikalı yapay zekanın insanlığı tehdit ettiğini düşünüyor
Siber suçlular ve diğer kötü aktörler genellikle derin sahte teknolojiyi kötüye kullanır. Bazı kullanım örnekleri arasında siyasi yanlış bilgiler, ünlülerin veya rızası olmayan kişilerin yer aldığı yetişkinlere uygun içerik, piyasa manipülasyonu ve parasal kazanç için kimliğe bürünme yer alır. Bu olumsuz etkiler, etkili derin sahte algılama yöntemlerine olan ihtiyacın altını çiziyor.
Intel Labs, dünyanın ilk gerçek zamanlı derin sahte algılama platformlarından birini geliştirdi. Teknoloji, sahte eserler aramak yerine, kalp atış hızı gibi gerçek olanı tespit etmeye odaklanır. Fotopletismografi adı verilen bir teknik kullanarak – tespit sistemi, hesaplamalı olarak görülebilen oksijen içeriği nedeniyle damarlardaki renk değişikliklerini analiz eder – teknoloji, bir kişiliğin gerçek bir insan mı yoksa sentetik mi olduğunu tespit edebilir.
“Neyin gerçek ve orijinal olduğuna bakmaya çalışıyoruz. Kalp atış hızı, [the signals]Demir, “Yani kalbiniz kan pompaladığında damarlarınıza gidiyor ve damarların rengi değişen oksijen içeriği nedeniyle renk değiştiriyor. Gözümüze görünmez; Bu videoya bakıp kalp atış hızınızı göremem. Ancak bu renk değişimi hesaplamalı olarak görülebilir.”
Ayrıca: Sahte ChatGPT uygulamaları tarafından dolandırılmayın: İşte dikkat etmeniz gerekenler
Intel’in derin sahte algılama teknolojisi, sosyal medya araçları, haber ajansları, yayıncılar, içerik oluşturma araçları, yeni kurulan şirketler ve kar amacı gütmeyen kuruluşlar dahil olmak üzere çeşitli sektör ve platformlarda uygulanmaktadır. Bu kuruluşlar, teknolojiyi iş akışlarına entegre ederek derin sahtekarlıkların ve yanlış bilgilerin yayılmasını daha iyi tanımlayabilir ve azaltabilir.
Kötüye kullanım potansiyeline rağmen, deepfake teknolojisinin meşru uygulamaları vardır. İlk kullanımlardan biri, dijital ortamlarda bireyleri daha iyi temsil etmek için avatarların oluşturulmasıydı. Demir, çevrimiçi platformlarda gizliliği artırmak için derin sahtelerden yararlanan “MyFace, MyChoice” adlı belirli bir kullanım örneğine atıfta bulunuyor.
Basit bir ifadeyle, bu yaklaşım, bireylerin tanınmaktan kaçınmak istiyorlarsa yüzlerini “nispeten farklı bir deepfake” ile değiştirerek çevrimiçi fotoğraflardaki görünümlerini kontrol etmelerine olanak tanır. Bu kontroller, kişinin kimliği üzerinde daha fazla gizlilik ve kontrol sunarak otomatik yüz tanıma algoritmalarına karşı koymaya yardımcı olur.
Ayrıca: GPT-3.5 ve GPT-4: ChatGPT Plus abonelik ücretine değer mi?
AI teknolojilerinin etik olarak geliştirilmesini ve uygulanmasını sağlamak çok önemlidir. Intel’in Güvenilir Medya ekibi, teknolojiyi değerlendirmek ve iyileştirmek için antropologlar, sosyal bilimciler ve kullanıcı araştırmacıları ile işbirliği yapar. Şirket ayrıca, olası önyargılar, sınırlamalar ve olası zararlı kullanım durumları dahil olmak üzere yapay zeka sistemlerini sorumlu ve etik ilkeler açısından inceleyen bir Sorumlu Yapay Zeka Konseyi’ne sahiptir. Bu çok disiplinli yaklaşım, derin sahte algılama gibi yapay zeka teknolojilerinin zarar vermek yerine insanlara fayda sağlamasına yardımcı olur.
Dimer, “Hukuk insanlarımız var, sosyal bilimcilerimiz var, psikologlarımız var ve hepsi bir araya gelerek önyargı olup olmadığını, algoritmik önyargı, sistematik önyargı, veri önyargısı, herhangi bir tür önyargı olup olmadığını belirlemek için sınırlamaları belirliyor” diyor. . Ekip, “insanlara zarar verebilecek bir teknolojinin olası kullanım durumlarını” bulmak için kodu tarar.
Ayrıca: Üretken yapay zekanın iş yerinde kullanımını keşfetmenin 5 yolu
Deepfake’ler daha yaygın ve sofistike hale geldikçe, yanlış bilgi ve diğer zararlı sonuçlarla mücadele etmek için tespit teknolojilerinin geliştirilmesi ve uygulanması giderek daha önemli hale geliyor. Intel Labs’ın gerçek zamanlı derin sahte algılama teknolojisi, büyüyen bu soruna ölçeklenebilir ve etkili bir çözüm sunar.
Intel, etik kaygıları bir araya getirerek ve çeşitli disiplinlerdeki uzmanlarla işbirliği yaparak, yapay zeka teknolojilerinin sorumlu bir şekilde ve toplumun iyiliği için kullanıldığı bir gelecek için çalışıyor.
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.