İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

Son dönemlerde internet kullanıcılarının korkulu rüyası haline gelen 'Deepfake' isimli uygulama, özellikle kadınların fotoğraflarını kullanarak ortaya skandal görüntüler çıkmasına neden oluyor. Bu uygulama, fotoğraflardan kesip aldığı yüzleri, cinsel içerikli film yıldızlarının yüzüne kondurarak, sahte cinsel içerikli filmler yaratıyor.

14.08.2019 15:14
İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

Kanalın kurucusu olan ve İngiliz Guardian gazetesine ismini Tom olarak açıklayan kişi de amacının, sahte haber ve görüntü çağının geleceği ile ilgili farkındalık yaratmak olduğunu söylüyor. Slovakya vatandaşı olan Tom, 3 ayda 20 deepfake videosu paylaştı.

İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

Günümüzde insanların gittikçe artan özçekim alışkanlığına bakılırsa, bu uygulamayı kullanmayı bilen birinin, herhangi bir kadını veya erkeği, cinsel içerikli bir film yıldızının yüzüne kondurmasının kolaylığı kesinlikle tartışmaya kapalı.

İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

Gün geçtikçe hayatımızda daha da yerini almaya başlayan yapay zeka, kötüye kullanıldığı takdirde ürkünç sonuçlara sebep olabiliyor.

İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

Bunun en yakın örneği, yalnızca fotoğraflarla, sahte cinsel içerikli film dahi yaratabilen ''Deepfake'' isimli uygulama.

İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

Özellikle kadınlar için büyük tehlike arz eden bu uygulama, videolara fotoğraflardan alınan yüzleri ekliyor ve fotoğraftaki kişiyi, gerçekten videoda yer alıyor gibi gösteriyor.

İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

Bu durum, sahte cinsel içerikli film endüstrisinin ortaya çıkmasına önayak olurken, uzmanlar bu tehlikenin varlığından çok etik olup olmadığını sorguluyor.

İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

Fotoğrafta, ünlü oyuncu Gal Gadot'un yüzünün, cinsel içerikli bir film yıldızının yüzüne yerleştirildiğini görüyoruz. Videodaki görüntüyü, gerçeğinden ayırt etmek neredeyse imkansız.

İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

Tom, 190 bini aşkın aboneye sahip olduğu kanalında, Stanley Kubrick'in 'Cinnet' filminin başrol oyuncusu Jack Nicholson'ın yerine, Jim Carrey'nin yüzünü yerleştirmişti. Kullanıcılar, görüntünün gerçekliği karşısında şaşkına dönerken, Tom, bu video için "Kamera yakın çekimde olduğu için çok iyi olmadı" demişti.

İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

Videoda, Bill Hader isimli komedyen, aktör Top Cruise ve Seth Rogen'ın taklidini yapıyor. O taklitler sırasında da Hader'ın yüzü, o anda taklitlerini yaptığı aktörlere dönüşüyor. Yalnızca YouTube'da 3 milyon izlemeyi aşan video, Deepfake teknolojisinin tüyler ürperten gerçekliğinin sembolü haline geldi.

İnternet kullanıcıları için büyük tehlike! Fotoğraflarınız kötü amaçlara alet edilebilir

BBC'nin haberine göre Ctrl Shift Face isimli YouTube hesabından paylaşılan 2008 tarihine ait video, Deepfake tehlikesini bir kez daha gözler önüne seriyor.

Yorumlar (19)
OKAN:güzel bir uygulama. acaba bu kız nasıl olurdu diye merak ederseniz görüntüleri ifşa etmeyip sadece kendiniz seyretmeniz kaydıyla bence hiç bir zararı yok.
MEHMET:kızlar fazla geniş olmasın. kızlar sosyal medya kullanmasın. otursun evinde örgü örsün yoksa başlarına herşey gelir.
GERÇEKLER:sonrada şeriata hayır deyın
Yazılan yorumlar hiçbir şekilde Haberler.com’un görüş ve düşüncelerini yansıtmamaktadır. Yorumlar, yazan kişiyi bağlayıcı niteliktedir.
Bu içeriği neredepaylaşmak istiyorsunuz?
Şu an buradasınız: Türkiye'nin en kapsamlı haber portalı: Haberler.com
Sitemizde yayınlanan haberlerin telif hakları haber kaynaklarına aittir, haberleri kopyalamayınız.

[Kullanım Şartları] - [Hata Bildir] 03 Haziran 2020 Çarşamba 16:06:14