Eski adı Twitter olan sosyal medya platformu X, Taylor Swift'in pornografik deepfake görüntülerinin internette dolaşmaya başlaması üzerine ünlü şarkıcıyla ile ilgili bazı aramalara engelleme getirdi.
Pazartesi günü sitede tırnak işaretleri olmadan Taylor Swift ismini arama girişimleri hata mesajı ve kullanıcıların aramalarını yeniden denemelerini isteyen bir uyarı verdi. Uyarıya "Üzülmeyin - bu sizin hatanız değil" ifadesi eklendi.
Taylor Swift isminin başına ve sonuna tırnak işareti koyulması ise Taylor Swift'in adından bahseden gönderilerin görüntülenmesiyle sonuçlandı.
Cinsel içerikli sahte görüntülerin geçen hafta X'te yaygın bir şekilde dolaşmaya başlaması, Taylor Swift'i, teknoloji platformlarının ve istismar karşıtı grupların mücadele ettiği deepfake teknolojisinin en ünlü mağduru haline getirmişti.
X'in üst düzey yetkililerinden Joe Benarroch, Taylor Swift'le ilgili aramaların kısıtlanmasıyla ilgili yaptığı açıklamada, "Bu geçici bir eylemdir ve bu konuda güvenliğe öncelik verdiğimiz için çok dikkatli bir şekilde yapılmıştır" dedi.
Görüntülerin internette yayılmaya başlamasının ardından, şarkıcının "Swifties" olarak adlandırılan sadık hayran kitlesi hızla harekete geçerek X'e karşı bir saldırı başlattı ve platformu pop yıldızının daha olumlu görüntüleriyle doldurmak için #ProtectTaylorSwift hashtag'i oluşturdu. Bazı hayranları, deepfake görüntüleri paylaşan hesapları ihbar ettiklerini söyledi.
Deepfake tespit grubu Reality Defender, özellikle eski adı Twitter olan X'te Swift'i tasvir eden pornografik içeriğin izini sürdüğünü bildirdi. Bazı görüntüler Meta'nın sahip olduğu Facebook ve diğer sosyal medya platformlarında da yer aldı.
Araştırmacılar yapay zeka kullanılarak oluşturulmuş onlarca görsel buldu. En çok paylaşılan görsellerin Amerikan futboluyla ilgili olduğu saptandı. Boyalı ya da kanlı bir Swift'in tasvir edildiği deepfake görsellerin ünlü şarkıcıyı nesneleştirdiği ve bazı durumlarda deepfake personasına şiddet kullanarak zarar verildiği görüldü.
Araştırmacılar, bu tür görüntüleri üretmek için kullanılan teknolojinin daha erişilebilir ve kullanımının daha kolay hale gelmesi nedeniyle, müstehcen deepfake görsel sayısının son birkaç yılda arttığını söylüyor.
2019 yılında yapay zeka firması DeepTrace Labs tarafından yayınlanan bir rapor, bu görüntülerin ezici bir çoğunlukla kadınlara karşı silah olarak kullanıldığını ortaya koydu. Rapora göre mağdurların çoğu Hollywood oyuncuları ve Güney Koreli pop şarkıcılarıydı.
Forum