$ DOLAR → Alış: 32,30 / Satış: 32,43
€ EURO → Alış: 34,58 / Satış: 34,72

Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik endişeleri konusunda uyardı

Son yıllarda yapay zeka (AI) ve makine öğrenimi teknolojilerinin yaygın olarak benimsenmesi, tehdit aktörlerine saldırılarını gerçekleştirebilecekleri sofistike yeni araçlar sağlıyor.

Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik endişeleri konusunda uyardı
  • 06.04.2024

Son yıllarda yapay zeka (AI) ve makine öğrenimi teknolojilerinin yaygın olarak benimsenmesi, tehdit aktörlerine saldırılarını gerçekleştirebilecekleri sofistike yeni araçlar sağlıyor.

Bunlardan biri de insan benzeri doğal konuşma veya gerçek insanların fotoğraf ve video kopyalarını içeren deepfake’ler. Bu saldırıları oluşturmak için harcanan zaman ve çaba genellikle potansiyel ‘ödüllerinden’ daha ağır bassa da Kaspersky, şirketlerin ve tüketicilerin deepfake’lerin gelecekte daha fazla endişe kaynağı olacağının farkında olmaları gerektiği konusunda uyarıyor.

Kaspersky araştırması, darknet pazarlarında deepfake oluşturma araçlarının ve hizmetlerinin yer aldığını tespit etti. Bu hizmetler dolandırıcılık, şantaj ve gizli verilerin çalınması gibi çeşitli amaçlar için yapay zeka yardımıyla video oluşturma imkanı sunuyor. Kaspersky uzmanlarının tahminlerine göre, bir dakikalık deepfake video 300 dolar gibi düşük bir fiyata satın alınabiliyor.

İnternet kullanıcıları arasında dijital okuryazarlık konusunda önemli bir uçurum olduğu konusunda da endişeler var. Yakın zamanda yapılan Kaspersky İş Dijitalleşme Anketine¹ göre Orta Doğu, Türkiye ve Afrika (META) bölgesinde ankete katılan çalışanların %51’i bir deepfake’i gerçek bir görüntüden ayırt edebileceklerini söyledi. Yapılan testte ise yalnızca %25’i gerçek bir görüntüyü yapay zeka tarafından oluşturulmuş bir görüntüden ayırt edebildi2. Kimlik avı ve diğer sosyal mühendislik saldırılarının birincil hedeflerinin genellikle çalışanlar olduğu düşünüldüğünde, bu durum kurumların risk altında olması demek.

Örneğin, siber suçlular CEO’nun bir banka havalesi talep ettiği veya ödemeyi onayladığı sahte bir video oluşturabilir ve bu video şirket varlıklarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek tehlikeye atıcı videolar ya da görüntüler oluşturulabilir.

Kaspersky Baş Veri Bilimcisi Vladislav Tushkanov, şunları söylüyor: “Yüksek kaliteli deepfake yaratacak teknolojiler henüz yaygın olarak bulunmasa da, bu teknolojinin en olası kullanım alanlarından biri gerçek zamanlı sesler üreterek başka birinin kimliğine bürünmektir. Örneğin çok uluslu bir firmada çalışan bir finans görevlisi, deepfake teknolojisi sayesinde bir video konferans görüşmesinde şirketin finans müdürü gibi davranılarak dolandırıcılara 25 milyon dolar aktarmak üzere kandırıldı. Deepfake’lerin yalnızca işletmeler için değil, aynı zamanda bireysel kullanıcılar için de bir tehdit olduğunu unutmamak önemlidir. Yanlış bilgi yayarlar, dolandırıcılık amacıyla kullanılırlar veya rızası olmadan başka birinin kimliğine bürünürler. Bu korunulması gereken ve büyüyen bir siber tehdit.”

Kaspersky, deepfake’lerin oluşturduğu çeşitli tehditlere karşı korunmak için kişilere ve işletmelere aşağıdaki önlemleri öneriyor:

  • Şüpheli aramalara dikkat edin. Düşük ses kalitesi, sesin doğal olmayan monotonluğu, anlaşılmaz konuşma şekilleri ve gelen anlamsız gürültülere dikkat edin.
  • Deepfake videoların temel özelliklerini öğrenin. Bu özellikler arasında sarsıntılı hareketler, bir plandan diğerine geçişte ışıkta kaymalar, cilt tonunda farklılıklar, konuşmayla senkronize olmayan dudak hareketleri ve zayıf aydınlatma yer alır.
  • Asla duygulara dayalı kararlar vermeyin ve ayrıntıları kimseyle paylaşmayın. Sadece o kişinin bilebileceği bir şey sormak ya da aramayı durdurmak, alınan bilgileri birkaç kanaldan ayrıca doğrulamak her zaman daha iyidir. Bu noktada ‘güven ama doğrula’ protokolünü izleyin.
  • Kuruluşunuzun siber güvenlik uygulamalarını kontrol edin ve güncelleyin. 
  • Kaspersky Threat Intelligence gibi bir güvenlik çözümü, bilgi güvenliği uzmanlarının deepfake konusundaki en son gelişmeler hakkında güncel kalmasına yardımcı olabilir.
  • Şirketler ayrıca çalışanlarının deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anlamalarını sağlayarak insana dayalı güvenlik duvarını güçlendirmelidir. Bu, çalışanlara deepfake saldırılarını nasıl tespit edeceklerini öğretmek üzere uygulanacak sürekli farkındalık ve eğitim çalışmalarını kapsar.

Kaynak: (BYZHA) Beyaz Haber Ajansı

Etiketler: / / / /

Türk Dünyası Sineması İzmir’de Ege Üniversitesi ev sahipliğinde bir araya geldi “Uluslararası Turan Film Festivali” başladı
“Uluslararası Turan Film Festivali” Ege Üniversitesinde gerçekleşen açılış töreniyle başladı. Ege Üniversitesi, Kültür ve Turizm Bakanlığı, Uluslararası Türk Kültürü Teşkilatı...
İsrail’in Gazze’ye düzenlediği saldırılarda ölen sağlık çalışanı sayısı 496’ya ulaştı
İsrail’in Gazze Şeridi’ne düzenlediği yıkıcı saldırıların başladığı 7 Ekim’den bu yana yaşamını yitiren sağlık personelinin sayısı 496’ya yükseldi.
Volkan Demirel’den istifa kararı
Hatayspor Teknik Direktörü Volkan Demirel istifa talebini yönetime sundu.
Merkez Bankası Resmen Açıkladı: Dolar Kuru O Tarihte 7 Liradan Fazla Yükselecek
Türkiye Cumhuriyet Merkez Bankası (TCMB), her ay düzenli olarak yayınladığı Piyasa Katılımcıları Anketi'nin nisan raporunda dolar kurunun akıbetine ilişkin çarpıcı...
Naci Görür’den O Bölgeye Kritik Uyarı
Manisa Genç İş İnsanları Derneği (MAGİAD) tarafından Manisa Kültür Merkezi Lale Salonu'nda düzenlenen "Manisa Depreme Hazır mı?" paneline katılan Görür,...
Tatlıses-Keser polemiğinde son raunt!
Mustafa Keser, İbrahim Tatlıses’in “Onu sahneye ilk çıkaran benim” sözlerine katıldığı bir televizyon programında yanıt verdi. Ünlü türkücü, Tatlıses’i yalancılıkla...
Bakan Kacır’dan KOBİ’lere müjde
Sanayi ve Teknoloji Bakanı Mehmet Fatih Kacır, "300 milyon avroluk bir finansmanı; dijital dönüşüm ve olgunluk değerlendirme analizi gerçekleştirerek, dijital...
Borsa İstanbul 1 Mayıs’ta açık mı, kapalı mı? 1 Mayıs Borsa tatil mi, çalışıyor mu? 1 Mayıs İşçi Bayramı BIST çalışma saati bilgisi!
1 Mayıs İşçi ve Emekçiler Bayramı'nda Borsa İstanbul'un çalışma durumu yatırımcıların odaklandığı konulardan oldu. Finansal işlemlerini sürdüren vatandaşlar resmi tatil...
Son dakika hava durumu tahminleri | 1 Mayıs’ta (yarın) hava nasıl olacak? İstanbul’da yağmur yağacak mı? Meteoroloji’den toz taşınımı, sağanak yağış ve fırtına uyarıları!
Hava durumu tahminleri son dakika Meteoroloji raporu ile yayınlandı. Ülke genelinde sağanak yağışlar devam ederken, çarşamba günü için yeni uyarı...
Ankara’da yağmur ne zaman duracak? Bugün yağmur yağacak mı? Valilikten ve Meteoroloji’den yeni uyarı geldi! 1 Mayıs Ankara hava durumu raporu…
Ankara'da sağanak ve dolu yağışı nedeniyle cadde ve sokaklar göle döndü. Meteoroloji'nin yaptığı uyarıların ardından Başkent'te akşam saatlerinde başlayan kuvvetli...
Dünyanın en kalabalık ülkesi Hindistan oldu
Birleşmiş Milletler Nüfus Fonu (UNFPA), nüfusu 1,441 milyara ulaşan Hindistan’ın, “dünyada en fazla insanın yaşadığı ülke” olduğunu bildirdi.
Çinli şirketler, ürünlerini ABD’ye arka kapıdan sokmak için nasıl Meksika’yı kullanıyor?
Çinli şirketler, ABD’nin gümrük vergilerini ve ambargolarını aşmak için, Meksika’da fabrika kurma yarışına girdi.
Iraklı bir baba, oğlunun ölümü nedeniyle BP’ye karşı yasal işlem başlattı: ‘Çevre, nefes alamayacak kadar kirlenmiş durumda’
Iraklı bir baba, 21 yaşındaki oğlunun ölümü nedeniyle İngiliz petrol devi BP’ye karşı yasal işlem başlattı.
Avrupa Parlementosu kadına yönelik şiddet konusundaki ilk AB yasasını onayladı: Faillere ağır cezalar geliyor
Avrupa Parlamentosu, Avrupa Birliği (AB) genelinde ilk kez uygulanacak kadına yönelik şiddetle mücadeleyle ilgili yasayı kabul etti.
İliç maden faciası için kurulan Meclis Araştırma Komisyonu’nun üyeleri belli oldu
Karara göre, konuya ilişkin kurulan Meclis Araştırma Komisyonu'nun Başkanı AKP Antalya Milletvekili Atalay Uslu, Başkanvekili ise AKP Bolu Milletvekili Yüksel...
ZİYARETÇİ YORUMLARI

Henüz yorum yapılmamış. İlk yorumu aşağıdaki form aracılığıyla siz yapabilirsiniz.

YORUM YAZ