Uydurma Sesleri, Gerçeklerinden Ayırt Etmenin Bir Yolu Var mı?

Uydurma Sesleri, Gerçeklerinden Ayırt Etmenin Bir Yolu Var mı?

Yapay zekanın kullanım alanı giderek genişliyor. Bundan en büyük tesirleri ise siyasi önderler ve dünyaca ünlü şahıslar görüyor. Eski ABD Lideri Donald Trump ve Papa Francis hakkında çıkan yapay zeka kullanılarak oluşturulan görseller toplumda büyük yankı uyandırmıştı.

Sahte seslerle üretilen müzikler ve görüntüler her ne kadar eğlenceli gözükse de işin bir de karanlık bir boyutu var: Dolandırıcılık. Geçtiğimiz devirde bir anneden kaçırılan kızı için fidye istenmiş ve durumun gerçekliğini kanıtlamak için kaçırıldığı söylenen kızın düzmece sesi kullanılmıştı. Aslında kız hiç kaçırılmamıştı. 

Aynı dolandırıcılık metodu, yapay zeka ile daha gerçekçi bir hal alıyor

Yapay zeka dolandırıcılığı giderek yaygınlaşıyor ve telefonun ucundaki ses, sevdiğiniz bir insanın sesi üzere geldiği için bu durum oldukça korkutucu bir hal alabiliyor. Günümüzde ülkemiz dahil dünyanın birçok yerinde dolandırıcılık kimileri için artık bir meslek. Teknolojinin de gelişmesiyle bu durum giderek inandırıcılığını artırıyor. Telefonda yapılan dolandırıcılıklar, tabi ki en kolayı ve en yaygını. Lakin artık daha korkutucu. 

2023’ün Nisan ayında, yeni kuşak yapay zeka dolandırıcılıklarının örneklerini görmüştük. Örneğin davet yanıltma tekniği kullanılarak sevilen biri, kurbanın telefonunda arayan kişi olarak görünmüştü. Bir başkası ise, kaçırılmamış olan kızını özgür bırakmak için bir anneden fidye parası koparmaya çalışmak maksadıyla bir yapay zeka ses klonunu kullanmıştı.

McAfee şirketi, yapay zekanın bu tıp makûs kullanımını gördü ve hususla ilgili derinlemesine bir rapor yayınladı. Şirket yayınladığı raporda, geçersiz sesleri önlemenin ve dolandırıcılıktan korunmanın yollarını açıkladı. 

Yöntemleri açıklamadan evvel gelin birlikte yapay zeka düzmece seslerinin nasıl çalıştığına bir bakalım.

Yapay zeka ses klonlama nasıl çalışır?

Öncelikle yapay zeka ses dolandırıcılığının uzun vakittir var olan bir tekniğin yeni versiyonu olduğunu lakin ondan çok daha ikna edici olduğunu söyleyebiliriz. Çoklukla bu şekil bir dolandırıcılıkta; sevilen birinin sesi kullanılarak acil bir durum için para isteniyor yahut kurbana, sevdiği birini fidye için kaçırdıkları söyleniyor.

2019 yılında, İngiltere merkezli bir güç firması CEO’sunun kimliğine bürünen dolandırıcılar, 243.000 dolar talep etti. Hong Kong’da bir banka müdürü, ses klonlama teknolojisini kullanan biri tarafından kandırılarak 2020’nin başlarında yüklü ölçüde havale yapılmasını sağladı. Kanada’da ise en az sekiz yaşlı vatandaş, bu yılın başlarında ses klonlama dolandırıcılığıyla toplam 200.000 dolar kaybetti.

Yapay zeka ses klonlama araçları çok ucuz ve kullanılabilir olduğundan, berbat niyetli taraflar için ses klonları oluşturmak da aslında epeyce kolay. Bunu yapmak için örnek ses elde etmenin en kolay yolu da tabi ki toplumsal medya. Sesinizi çevrimiçi olarak ne kadar çok paylaşırsanız, dolandırıcıların sesinizi bulması ve klonlaması da o kadar kolay oluyor.

Yukarıdaki görselde, yapılan bir anketin sonuçlarını görebilirsiniz. Elde edilen bilgilere nazaran; kullanıcıların %26’sı haftada bir ya da iki defa seslerini toplumsal medyada paylaştığını söylüyor. 

Yapay zeka ses dolandırıcılığı ne kadar yaygın?

Haberlerde yapay zeka ses dolandırıcılığı ile ilgili kimi öyküler yeni yeni görünmeye başlasa da, yapılan araştırma bu şekil dolandırıcılıkların hayli yaygın hale geldiğini ortaya koyuyor.

Küresel anketlere bakıldığında, şahısların %25’i ya kendisinin ya da tanıdığı birinin yapay zeka dolandırıcılığına maruz kaldığını söylüyor. Anket datalarına nazaran yapay zeka ses dolandırıcılığı konusunda en fazla sorun yaşayan ülke %47 ile Hindistan. 

Ses klon araçları, %95 oranında doğruluk sağlıyor

Ses klonlama için kullanılan yapay zeka araçları o kadar gerçekçi ki mağdurların neredeyse tamamı geçersiz sesin, tanıdıkları kişinin sesine tıpatıp benzediğini söylüyor. Hatta yukarda bahsettiğimiz fidye hadisesinde mağdur anne, kızının sesi dışında “tonlamasının” bile tıpkı olduğunu söz ediyor. 

Yapay zeka uydurma seslerinin gerçeğine bu kadar benzemesi, insanlara kısacık bir vakit diliminde binlerce dolar kaybettiriyor. Araştırmaya nazaran yapay zeka ses dolandırıcılığı kurbanlarının %77‘si paralarını kaptırıyor. Bilgiler, 2022 yılı genelinde toplamda 2,6 milyar dolarlık bir paranın bu prosedürle çalındığını gösteriyor. 

Peki, uydurma sesler gerçeğinden nasıl ayırt edilir?

Yapay zeka ses dolandırıcılıklarını önlemenin şimdilik kesin ve süratli bir yolu yok. Fakat kendi kendinize alabileceğiniz birtakım tedbirler bulunuyor. 

  1. Sesinizi ve/veya görüntünüzü çevrimiçi olarak ne kadar paylaştığınızı sınırlayın ve/veya toplumsal medya hesaplarınızı herkese açık yerine özel olarak ayarlayın,
  2. Şüpheli bir davet alırsanız ve sevdiğiniz biri sizden acil olarak maddi bir yardım isterse sadece o kişinin yanıtlayabileceği bir yahut iki soru sorun (cevabı internette olan bir soru asla sormayın),
  3. Siber hatalılar, mağduru harekete geçirmek için taklit ettikleri şahısla aranızdaki duygusal bağa güvenirler. Kuşkucu olun ve sorgulamaktan çekinmeyin. Kuşkularınız geçmediyse telefonu kapatın ve kendiniz o kişiyi direkt olarak arayın.

Escort İzmir - Escort Aliağa - Escort Balçova - Escort Bayındır - Escort Bayraklı - Escort Bergama - Escort Beydağ - Escort Bornova - Escort Buca - Escort Çeşme - Escort Çiğli - Escort Dikili - Escort Foça - Escort Gaziemir - Escort Güzelbahçe - Escort Karabağlar - Escort Karaburun - Escort Karşıyaka - Escort Kemalpaşa - Escort Kınık - Escort Kiraz - Escort Konak - Escort Menderes - Escort Menemen - Escort Narlıdere - Escort Ödemiş - Escort Seferihisar - Escort Selçuk - Escort Tire - Escort Torbalı - Escort Urla