DEEPFAKE TEHDİTLERDEN KORUNMANIN YOLU
Darkweb'de deepfake oluşturma fiyatları dakika başına 20 bin dolara ulaştı...
09 Mayıs 2023 Salı 10:44
Deepfake oluşturma araçları ve hizmetleri darknet pazarlarında yer alıyor. Bu hizmetler dolandırıcılık, şantaj ve gizli verilerin çalınması gibi çeşitli amaçlar için yapay zeka destekli video oluşturma hizmeti sunuyor. Deepfake oluşturma veya satın alma fiyatları, projenin karmaşıklığına ve nihai ürünün kalitesine bağlı olarak değişebiliyor. Kaspersky uzmanlarının tahminlerine göre bir dakikalık deepfake video başına fiyatlar 300 ila 20 bin dolar arasında değişebiliyor. Bu durum Kaspersky Cyber Security Weekend - META 2023 etkinliğinde paylaşıldı.
Kaspersky, farklı kötü niyetli amaçlar için deepfake video ve ses oluşturma hizmeti veren çeşitli Darknet pazarlarını ve yeraltı forumlarını analiz etti. Bazı durumlarda bireyler, deepfake oluşturmak için ünlüler veya siyasi figürler gibi belirli hedefler talep edebiliyor.
Siber suçlular, üretilen yapay zeka videolarını yasa dışı faaliyetler için çeşitli şekillerde kullanıyor. Bireyleri veya kuruluşları dolandırmak için kullanılabilecek sahte videolar veya görüntüler oluşturmak için deepfake örnekleri kullanabiliyor. Örneğin bir CEO'nun banka havalesi talep ettiği veya bir ödemeyi yetkilendirdiği sahte bir video hazırlanabiliyor ve bu video kurumsal fonları çalmak için kullanabiliyor. Sahte videolar, kişilerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler oluşturmak için de kullanılabiliyor. Siber suçlular ayrıca yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake'lerden faydalanabiliyor. Örneğin bir politikacının tartışmalı açıklamalar yaptığı sahte bir video oluşturabiliyor ve bunu seçimin sonuçlarını etkilemek için kullanabiliyor.
Deepfake teknolojisi, meşru hesap sahibinin gerçekçi sahte videolarını veya ses kayıtlarını oluşturarak ödeme hizmetlerinde doğrulama aşamasını atlamak için kullanılabiliyor. Bunlar, ödeme hizmeti sağlayıcılarını gerçek hesap sahibiyle karşı karşıya olduklarını düşünmeleri için kandırmak ve böylece hesaba ve ilgili fonlara erişim elde etmek için kullanılabiliyor.
Kaspersky Lider Veri Bilimcisi Vladislav Tushkanov, şunları söyledi: "Deepfake'ler giderek artan bir şekilde şantaj ve dolandırıcılık amacıyla kullanılıyor. Örneğin, bir İngiliz enerji firmasının CEO'su, ana şirketinin başkanının acil fon transferi talep eden bir ses deepfake'i ile 243.000 dolar dolandırıldı. Neticede fonlar dolandırıcının banka hesabına aktarıldı. Durum ancak suçlu başka bir transfer talebinde bulununca ortaya çıktı, ancak o zamana kadar zaten transfer edilmiş olan fonları geri almak için çok geç kalınmıştı. Benzer bir vaka BAE'de rapor edildi ve burada da ses deepfake'i içeren bir dolandırıcılıkta 400 bin dolar çalındı. Bununla birlikte deepfake'lerin yalnızca işletmeler için değil, aynı zamanda bireysel kullanıcılar için de bir tehdit olduğunu unutmamak gerekir. Bunlar yanlış bilginin yayılmasına sebep olabilir, dolandırıcılık için kullanılabilir veya rızası olmadan başka birinin kimliğine bürünebilir. Dijital okuryazarlık seviyenizi artırmak, bu tehditlere karşı koymak için anahtar niteliğindedir."
Darkweb kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son eğilimlerini ve faaliyetlerini takip etmelerine olanak tanıyor. Araştırmacılar darknet'i izleyerek deepfake'lerin oluşturulması ve dağıtımı için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu tür bir izleme, deepfake araştırmasının kritik bir bileşenini oluşturuyor ve gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda bir adım önde olmalarına yardımcı olmak için bu tür bir izleme içeriyor.
Kaspersky, deepfake ile ilgili tehditlerden korunmak için şunları öneriyor:
Kuruluşunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılımları değil, aynı zamanda gelişmiş BT becerilerini de ele alın. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.
Kurumsal "insan güvenlik duvarınızı" güçlendirin. Çalışanların deepfake'lerin ne olduğunu, nasıl çalıştıklarını ve yol açabilecekleri problemleri anlamalarını sağlayın. Çalışanlara bir deepfake'i nasıl tespit edeceklerini öğretmek için sürekli farkındalık ve eğitim çalışmaları yapın. Kaspersky Automated Security Awareness Platform, çalışanların en yeni tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.
Nitelikli haber kaynaklarına başvurun. Bilgi cehaleti, derin sahtekarlıkların yaygınlaşmasını sağlayan önemli bir etken olmaya devam ediyor.
'Güven ama doğrula' gibi iyi protokollere sahip olun. Sesli mesaj ve videolara şüpheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir.
Deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden diğerine ışık kaymaları, cilt tonunda kaymalar, garip şekilde göz kırpma veya hiç göz kırpmama, dudakların konuşmayla senkronize olmaması, görüntüdeki dijital kalıntılar, videonun kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu sahteciliği ele vermeye yardımcı olan ipuçlarıdır.
- Çalan her telefonu açmayınTelefon dolandırıcılığı neden hala revaçta?19 Kasım 2024 Salı 12:12TEKNOLOJİ
- Türkiye’nin yapay zeka zirvesi başlıyorYapay Zeka Zirvesi’ne sayılı günler kaldı21 Ekim 2024 Pazartesi 10:26TEKNOLOJİ
- Bu yöntemle turistlerden milyonlarca euro çalınmışRezervasyon dolandırıcılığıyla turistlerden milyonlarca euro çalınmış16 Ekim 2024 Çarşamba 18:55TEKNOLOJİ
- İşte en yaygın 10 dolandırıcılık yöntemiKüçük İşletme Sahiplerinin Karşılaştıkları En Yaygın 10 Dolandırıcılık20 Eylül 2024 Cuma 18:48TEKNOLOJİ
- Ses kopya ama tuzak gerçekYeni nesil sosyal mühendislik saldırılarına karşı uyanık olun18 Eylül 2024 Çarşamba 11:45TEKNOLOJİ
- KOBİ’lere fidye tuzağıCosmicbeetle zararlısının arkasında bir Türk mü var?...11 Eylül 2024 Çarşamba 09:55TEKNOLOJİ
- Sahte iPhone 16 tekliflerine dikkatDolandırıcıların yeni iPhone aldatmacasından nasıl yararlandığı ortaya çıktı...09 Eylül 2024 Pazartesi 10:41TEKNOLOJİ
- Takviye ürün dolandırıcılığı arttıTakviye Ürün Dolandırıcılıklarında Görülen En Yaygın Yöntemler...07 Eylül 2024 Cumartesi 09:20TEKNOLOJİ
- Tehlike arama motorları ile yayılıyorKötü amaçlı yazılımlar çevrimiçi reklam ağları ile geniş kitlelere ulaşıyor...06 Eylül 2024 Cuma 10:51TEKNOLOJİ
- Güvenlik açıklarına dikkatSiber casuslar güvenlik açıklarından içeri sızıyor...02 Eylül 2024 Pazartesi 10:49TEKNOLOJİ
- Banka dolandırıcılığına dikkatBankacılık dolandırıcılığından nasıl kaçınılır?...02 Eylül 2024 Pazartesi 09:20TEKNOLOJİ
- Dijital kimlik nasıl korunur?Telefon numarası güvenliği için uzmanlardan stratejiler...31 Ağustos 2024 Cumartesi 09:27TEKNOLOJİ
- Ebeveynler bu tuzağa düşmeyin!Okula dönüş döneminde en sık rastlanan 6 siber tehdit...31 Ağustos 2024 Cumartesi 09:25TEKNOLOJİ
- Siber suçluların en sevdiği saldırıParola sayısı arttıkça, kimlik avı saldırıları cazibesini koruyor...29 Ağustos 2024 Perşembe 10:31TEKNOLOJİ
- İnternet kullanıcıları saldırı altındaSiber saldırganların kullandığı en yaygın 4 manipülasyon yöntemi...26 Ağustos 2024 Pazartesi 09:53TEKNOLOJİ
- Siber suçluların yeni tekniğiKurbanlarının kart bilgilerini kendi telefonlarına aktarıyorlar...23 Ağustos 2024 Cuma 09:18TEKNOLOJİ
- Yapay zekâ oltanın ucundaSiber suçlular yapay zekâyı yem olarak kullanıyor...22 Ağustos 2024 Perşembe 09:18TEKNOLOJİ
- Dolandırıcılar telefon numaranızın peşindeDolandırıcılık endüstrisi büyümeye devam ediyor...21 Ağustos 2024 Çarşamba 10:58TEKNOLOJİ
- Finansal dolandırıcılık artıyorMobil kullanıcılar yeni bir finansal dolandırıcılık ile karşı karşıya...20 Ağustos 2024 Salı 12:31TEKNOLOJİ
- Çalışanlar yapay zekaya güveniyorÇalışanların yüzde 77'si otonom yapay zeka geleceğine güvenmeye başlıyor...17 Ağustos 2024 Cumartesi 10:10TEKNOLOJİ
- Geri
- Ana Sayfa
- Normal Görünüm
- © 2015 Bursa Bakış
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.