Şemsettin Yılmaz Yeni

Adli Bilişim Uzmanı Tuncer: ’’Deepfake ile Ünlülerin veya Sıradan İnsanların Yapmadıklarını ve Söylemediklerini Yaptırmak Mümkün’’

Bilim-Teknoloji (Elazığ Bülten) - Elazığ Bülten İnternet Haberciliği | 13.11.2024 - 11:04, Güncelleme: 13.11.2024 - 10:21 234 kez okundu.
 

Adli Bilişim Uzmanı Tuncer: ’’Deepfake ile Ünlülerin veya Sıradan İnsanların Yapmadıklarını ve Söylemediklerini Yaptırmak Mümkün’’

Adli Bilişim Uzmanı Tuncer: ’’Deepfake ile ünlülerin veya sıradan insanların yapmadıklarını ve söylemediklerini yaptırmak mümkün’’

Fırat Üniversitesi Teknoloji Fakültesi Adli Bilişim Uzmanı Doç. Dr. Türker Tuncer, son dönemlerde artan yapay zeka dolandırıcılığına ilişkin, ’’Kişisel güvenlik tehditlerinde ünlülerin ya da sıradan bireylerin yapmadıklarını yapabilen ve üretebilen yapay zeka teknolojilerinden bahsetmekteyiz. Bu teknolojileri 15-20 dolar karşılığında üretebilen modeller mevcuttur. Bu modelleri kullanarak kişilerin itibarlarını zedeleyecek sistemler geliştirilmektedir’’ dedi.Fırat Üniversitesi Teknoloji Fakültesi Adli Bilişim Uzmanı Doç. Dr. Türker Tuncer, yapay zeka dolandırıcılığı hakkında açıklamalarda bulundu. Yapay zekanın getirdiği faydaların yanı sıra zararlarının da olduğunu aktaran Tuncer, yapay zeka dolandırıcılığına karşı vatandaşların bilinçlendirilmesi ve cezaların caydırıcı olmasıyla birlikte bu dolandırıcılık olaylarının önüne geçilebileceğini söyledi. Son yıllarda yapay zeka teknolojilerinin hızla ilerlemekte olduğunu belirten Doç. Dr. Tuncer, “Bu teknolojiler günlük hayatımızda birçok alanda kullanılmaktadır. Bu teknolojilerin kullanıldığı alanlar ise sosyal medyadan tutun da günlük işlerimizi kolaylaştıracak birçok işte de biz yapay zekadan faydalanmaktayız. Özellikle LLM’lerin ortaya çıkması ile birlikte yapay zekanın birçok faydasını görmekteyiz. Ancak LLM teknolojilerinde ve diğer yapay zeka tekniklerinde var olan üretme yetenekleri ile birlikte Deepfake adı verilen bir saldırı da karşımıza çıkmaktadır. Deepfake saldırıları söylenmeyeni söyleyen, yazılmayanı yazan ve hiç olmayan sahneleri oluşturan bir teknoloji anlamına gelmektedir. Bu durum güvenliğimizi üç başlıkta tehdit etmektedir. Bunlar; kişisel güvenlik tehditleri, kurumsal güvenlik tehditleri ve ulusal güvenlik tehditleri olarak sıralanmaktadır. Kişisel güvenlik tehditlerinde ünlülerin ya da sıradan bireylerin yapmadıklarını yapabilen ve üretebilen yapay zeka teknolojilerinden bahsetmekteyiz. Bu teknolojileri 15-20 dolar karşılığında üretebilen modeller mevcuttur. Bu modelleri kullanarak kişilerin itibarlarını zedeleyecek sistemler geliştirilmektedir. Ayrıca 2022’de Çin’de gerçekleşen bir olayda 622 bin dolarlık bir dolandırıcılık Deepfake kullanılarak meydana gelmiştir. Kurumsal güvenlik tehditlerine geldiğimiz zaman ise kurumsal güvenlik tehditleri açısından Deepfake yöntemleri daha zararlı olarak görülmektedir. 2023 raporlarına göre tüm kurumların yaklaşık yüzde 40’ı Deepfake ataklarına maruz kalmıştır. Ulusal güvenlik tehditlerinde ise özellikle seçim zamanlarında yapılan Deepfake atakları dikkat çekmektedir. Özellikle ABD seçimlerinde yer alan Cambridge Analytica veri skandalı, Deepfake ataklarından en çok bilinenlerinin başında gelmektedir. Şimdi alınacak yöntemlerde ise farkındalık eğitimini güçlendirmeliyiz. Güçlü kimlik doğrulama yöntemleri kullanmalıyız, toplumu bilinçlendirmeliyiz ve yasal düzenlemeler yapmalıyız. TCK’da bununla ilgili bir yasal düzenleme yapılırsa daha da caydırıcı olacağını düşünmekteyiz’’ diye konuştu.’’Yapay zekanın getirdiği faydaların yanı sıra zararları da mevcuttur’’Türkiye’de bu işi yapabilmek için artık adli bilişim mühendisliği olduğunun altını çizen Tuncer, ’’Adli bilişim mühendisleri Fırat Üniversitesinde ilk ve tek olarak yetiştirilmektedir. Özellikle verdiğimiz yapay zeka ve siber güvenlik eğitimleriyle birlikte biz adli bilişim mühendislerini Deepfake’e karşı daha da donanımlı yetiştirmeye çalışıyoruz. Deepfake ataklarından korunmak için her kurumun adli bilişim mühendislerini bünyelerinde barındırmaları gerekir. Biz bu süreçte adli bilişim mühendislerini Deepfake’e karşı beyaz şapkalı hackerler olarak yetiştirerek, Deepfake problemleri ve saldırılarını çözmeye çalışmaktayız. Yapay zekanın getirdiği faydaların yanı sıra zararları da mevcuttur. Yapay zekanın üretim teknolojisinde kullanılan modeller var. Siz bir soru sorduğunuz zaman modeller size hem metin hem de resim üretebilmektedir. Video üreten yapay zeka teknolojileri de var. Video yapay zeka teknikleri 15 saniye ile 1 dakika arasında videolar üretebilmektedir. Deepfake tehdidinde bir video 15 saniyeden daha kısaysa Deepfake ile üretilmiş olma olasılığından şüpheleniyoruz. Bunun yanı sıra biz bununla baş edebilecek yapay zeka yöntemleri de geliştiriyoruz. Fizik kurallarına aykırı bir şekilde bu yapay zeka modelleri videolar ve resimler üretebiliyorlar. Bu üretilen resimlerle biz ne yapıyoruz; eğer fizik kurallarına aykırıysa bunu çeşitli yapay zeka çeşitleriyle tespit edebiliyoruz. Ayrıca kurumların da kullanması gereken yöntemler var. Bu yöntemlerden bir tanesi filigran yöntemleridir. Eğer bir kurum kendi videosunu yayınlamak istiyorsa görünür veya görünmez damgalama yöntemleri kullanabilir. Bu damgalama yöntemleri genelde şifreli yayınlarda kullanılıyor. Bunu kurumlara da yaygınlaştırmamız gerekiyor’’ diye konuştu.
Adli Bilişim Uzmanı Tuncer: ’’Deepfake ile ünlülerin veya sıradan insanların yapmadıklarını ve söylemediklerini yaptırmak mümkün’’
Fırat Üniversitesi Teknoloji Fakültesi Adli Bilişim Uzmanı Doç. Dr. Türker Tuncer, son dönemlerde artan yapay zeka dolandırıcılığına ilişkin, ’’Kişisel güvenlik tehditlerinde ünlülerin ya da sıradan bireylerin yapmadıklarını yapabilen ve üretebilen yapay zeka teknolojilerinden bahsetmekteyiz. Bu teknolojileri 15-20 dolar karşılığında üretebilen modeller mevcuttur. Bu modelleri kullanarak kişilerin itibarlarını zedeleyecek sistemler geliştirilmektedir’’ dedi.
Fırat Üniversitesi Teknoloji Fakültesi Adli Bilişim Uzmanı Doç. Dr. Türker Tuncer, yapay zeka dolandırıcılığı hakkında açıklamalarda bulundu. Yapay zekanın getirdiği faydaların yanı sıra zararlarının da olduğunu aktaran Tuncer, yapay zeka dolandırıcılığına karşı vatandaşların bilinçlendirilmesi ve cezaların caydırıcı olmasıyla birlikte bu dolandırıcılık olaylarının önüne geçilebileceğini söyledi. Son yıllarda yapay zeka teknolojilerinin hızla ilerlemekte olduğunu belirten Doç. Dr. Tuncer, “Bu teknolojiler günlük hayatımızda birçok alanda kullanılmaktadır. Bu teknolojilerin kullanıldığı alanlar ise sosyal medyadan tutun da günlük işlerimizi kolaylaştıracak birçok işte de biz yapay zekadan faydalanmaktayız. Özellikle LLM’lerin ortaya çıkması ile birlikte yapay zekanın birçok faydasını görmekteyiz. Ancak LLM teknolojilerinde ve diğer yapay zeka tekniklerinde var olan üretme yetenekleri ile birlikte Deepfake adı verilen bir saldırı da karşımıza çıkmaktadır. Deepfake saldırıları söylenmeyeni söyleyen, yazılmayanı yazan ve hiç olmayan sahneleri oluşturan bir teknoloji anlamına gelmektedir. Bu durum güvenliğimizi üç başlıkta tehdit etmektedir. Bunlar; kişisel güvenlik tehditleri, kurumsal güvenlik tehditleri ve ulusal güvenlik tehditleri olarak sıralanmaktadır. Kişisel güvenlik tehditlerinde ünlülerin ya da sıradan bireylerin yapmadıklarını yapabilen ve üretebilen yapay zeka teknolojilerinden bahsetmekteyiz. Bu teknolojileri 15-20 dolar karşılığında üretebilen modeller mevcuttur. Bu modelleri kullanarak kişilerin itibarlarını zedeleyecek sistemler geliştirilmektedir. Ayrıca 2022’de Çin’de gerçekleşen bir olayda 622 bin dolarlık bir dolandırıcılık Deepfake kullanılarak meydana gelmiştir. Kurumsal güvenlik tehditlerine geldiğimiz zaman ise kurumsal güvenlik tehditleri açısından Deepfake yöntemleri daha zararlı olarak görülmektedir. 2023 raporlarına göre tüm kurumların yaklaşık yüzde 40’ı Deepfake ataklarına maruz kalmıştır. Ulusal güvenlik tehditlerinde ise özellikle seçim zamanlarında yapılan Deepfake atakları dikkat çekmektedir. Özellikle ABD seçimlerinde yer alan Cambridge Analytica veri skandalı, Deepfake ataklarından en çok bilinenlerinin başında gelmektedir. Şimdi alınacak yöntemlerde ise farkındalık eğitimini güçlendirmeliyiz. Güçlü kimlik doğrulama yöntemleri kullanmalıyız, toplumu bilinçlendirmeliyiz ve yasal düzenlemeler yapmalıyız. TCK’da bununla ilgili bir yasal düzenleme yapılırsa daha da caydırıcı olacağını düşünmekteyiz’’ diye konuştu.

’’Yapay zekanın getirdiği faydaların yanı sıra zararları da mevcuttur’’
Türkiye’de bu işi yapabilmek için artık adli bilişim mühendisliği olduğunun altını çizen Tuncer, ’’Adli bilişim mühendisleri Fırat Üniversitesinde ilk ve tek olarak yetiştirilmektedir. Özellikle verdiğimiz yapay zeka ve siber güvenlik eğitimleriyle birlikte biz adli bilişim mühendislerini Deepfake’e karşı daha da donanımlı yetiştirmeye çalışıyoruz. Deepfake ataklarından korunmak için her kurumun adli bilişim mühendislerini bünyelerinde barındırmaları gerekir. Biz bu süreçte adli bilişim mühendislerini Deepfake’e karşı beyaz şapkalı hackerler olarak yetiştirerek, Deepfake problemleri ve saldırılarını çözmeye çalışmaktayız. Yapay zekanın getirdiği faydaların yanı sıra zararları da mevcuttur. Yapay zekanın üretim teknolojisinde kullanılan modeller var. Siz bir soru sorduğunuz zaman modeller size hem metin hem de resim üretebilmektedir. Video üreten yapay zeka teknolojileri de var. Video yapay zeka teknikleri 15 saniye ile 1 dakika arasında videolar üretebilmektedir. Deepfake tehdidinde bir video 15 saniyeden daha kısaysa Deepfake ile üretilmiş olma olasılığından şüpheleniyoruz. Bunun yanı sıra biz bununla baş edebilecek yapay zeka yöntemleri de geliştiriyoruz. Fizik kurallarına aykırı bir şekilde bu yapay zeka modelleri videolar ve resimler üretebiliyorlar. Bu üretilen resimlerle biz ne yapıyoruz; eğer fizik kurallarına aykırıysa bunu çeşitli yapay zeka çeşitleriyle tespit edebiliyoruz. Ayrıca kurumların da kullanması gereken yöntemler var. Bu yöntemlerden bir tanesi filigran yöntemleridir. Eğer bir kurum kendi videosunu yayınlamak istiyorsa görünür veya görünmez damgalama yöntemleri kullanabilir. Bu damgalama yöntemleri genelde şifreli yayınlarda kullanılıyor. Bunu kurumlara da yaygınlaştırmamız gerekiyor’’ diye konuştu.

Elazığ HABERİ

Habere ifade bırak !
Habere ait etiket tanımlanmamış.
Okuyucu Yorumları (0)

Yorumunuz başarıyla alındı, inceleme ardından en kısa sürede yayına alınacaktır.

Yorum yazarak Topluluk Kuralları’nı kabul etmiş bulunuyor ve elazigbulten.com sitesine yaptığınız yorumunuzla ilgili doğrudan veya dolaylı tüm sorumluluğu tek başınıza üstleniyorsunuz. Yazılan tüm yorumlardan site yönetimi hiçbir şekilde sorumlu tutulamaz.
Sitemizden en iyi şekilde faydalanabilmeniz için çerezler kullanılmaktadır, sitemizi kullanarak çerezleri kabul etmiş saylırsınız.