Новости в нашем Телеграм канале Подписаться ×

Barno Sultonova

Ozodlik qo‘rquvning yuziga tik qaray olishdir.

Ayolni bir tugma bilan “yechintirish” yoxud deepfake qurbonlari

Ayolni bir tugma bilan “yechintirish” yoxud deepfake qurbonlari

foto:https://ru.freepik.com

“Qanday qilib taslim bo‘lishni istamagan ayolni sharmanda qilib, ovozini o‘chirasiz? Siz uning fe’l-atvoriga tajovuz qilishga, uning kamtarligini haqorat qilishga, uni ijtimoiy tarmoqlardagi akkauntlarini boshqarishdan qo‘rqitishga, uning axloqi haqidagi afsona va mish-mishlarni tarqatishga harakat qilasiz, bu eng qadimgi stereotip”, — deb yozgan Rana Ayyub 17 noyabr kuni o‘zining Instagram sahifasida. U shunga qo‘shimcha qilib, “Ey kasal odamlar, men hech qayerga ketmayman. Harakatlarim ta’sir ko‘rsatayotganini, so‘zlarim sizni qo‘rqitayotganini, mavjudligim sizning qo‘rqoqligingiz va nafratingizga qarshi turishini menga anglashga yordam berganingiz uchun tashakkur”, — dedi.

Amerika ommaviy axborot vositalarining sharhlovchisi Rana Ayyub muntazam ravishda onlayn tuhmat kampaniyalarining nishoniga aylangan. Sobiq Twitter platformasidagi anonim millatchi akkaunt Rana Ayyubning shaxsiy telefon raqamini oshkor qilib, boshqalarni uni ta’qib qilishga undagan. Shu kechaning o‘zida u 200 dan ortiq behayo qo‘ng‘iroq va xabarlar olgan. Keyin esa ijtimoiy tarmoqlarda uning pornografik surati tarqatildi va shaxsiy ma’lumotlari, akkaunt parollari ham oshkor qilindi. Bu faqat jurnalistning dushmanlari ishi emas, balki ayollarni global darajada tartibsiz ta’qib qilish tizimi ekanini ko‘rsatadi.

Internet ayollar uchun hech qachon xavfsiz hudud bo‘lgan emas. Ammo sun’iy intellekt kirib kelgach, bu maydon ochiq ta’qibdan yangi avlod jinsiy zo‘ravonlikka aylandi. Endi ayolni haqiqiy videosiz ham xo‘rlash mumkin, yuzi, ovozi yetarli qolganini algoritm bajaradi.

Dipfeyk (inglizcha deepfake — deep learning “chuqur o‘qitish” va fake “qalbaki”) — sun’iy intellekt asosida tasvir yoki ovozni sintez qilish texnologiyasidir. Bu usul orqali insonning yuzi, ovozi yoki harakatlari boshqa video yoki audioga sun’iy ravishda qo‘shiladi.

2016-yildan boshlab yuz harakatlarini real vaqtda almashtirish imkoni paydo bo‘ldi. 2020 yilda Microsoft hatto Video Authenticator dasturini taqdim etdi — dipfeykni aniqlash uchun. Ammo muammo shundaki: yasash tez, fosh etish esa sekin. Ovozli dipfeyk — bu inson ovozini sun’iy intellekt yordamida taqlid qilish. Bu texnologiya filmlarni lokalizatsiya qilish, gapira olmaydigan insonlarga ovoz berish, audiokitoblarni ota-onalar ovozida o‘qish uchun ijobiy qo‘llanilishi mumkin. Ammo aynan shu texnologiya firibgarlik, obro‘sizlantirish, dezinformatsiya uchun ham ishlatilmoqda.

Dipfeyk-porno ilk bor 2017-yilda Reddit’da paydo bo‘lgan va keyinchalik Twitter, Pornhub kabi platformalarda taqiqlangan. Ammo taqiq tarqalishni to‘xtatmadi. Bu texnologiya shuningdek yolg‘on yangiliklar, soxta dalillar, shantaj uchun ham ishlatilmoqda. 

2024-yil boshida X (Twitter) tarmog‘ida Teylor Svift ishtirokidagi sun’iy intellekt yaratgan intim suratlar virusdek tarqaldi. Ular o‘chirilguncha o‘nlab million marta ko‘rilgan. Rasmiy o‘chirishga 17 soat ketgan, ammo ba’zi tasvirlar hali ham aylanib yuribdi.

Britaniyada esa partiya lideri Angela Reyner, ta’lim ministri Djillian Kigan, Penni Mordant kabi ayol siyosatchilarning dipfeyk-porno tasvirlari tarqaldi. Ayrimlari fotoshop, ayrimlari esa to‘liq AI orqali yaratilgan. Bu feyk foto va videolarning aksariyati ijtimoiy tarmoqlarda ancha yillardan beri aylanib yuribdi, deb yozadi The Guardian nashri.

Bugun bepul ilovalar va generatorlar orqali: oddiy suratdan “kiyimsiz” tasvir yasash, video orqali insonni “sharmandali ish qilayotganini” ko‘rsatish, hatto bolalar tasvirlarini ham sun’iy pornoga aylantirish mumkin.

Yuzni almashtirish, kiyimli suratni “yechintirish”, yuz manipulyasiyasi, sintetik yuz yaratish, matndan tasvir yaratish, ovozni o‘zgartirish kabi texnologiyalar nafaqat mashhurlarga, balki oddiy insonlarga ham qarshi qo‘llanyapti. Psixologlar ta’kidlashicha, inson o‘z yuzini dipfeyk-pornoda ko‘rishi real jinsiy zo‘ravonlikka yaqin jarohat qoldiradi.

Qurbonlar kuchli uyat va qo‘rquv his qiladi, depressiya, uyqusizlik, xavotirga tushadi, ishidan, oilasidan, jamiyatdan uzilib qoladi. Ayniqsa, voyaga yetmaganlar eng himoyasiz guruh hisoblanadi, ular maktabda tahqirlanadi, ijtimoiy yakkallanadi, uzoq yillik ruhiy shikast bilan yashaydi.

Eng og‘iri — video o‘chirilsa ham, shubha qoladi. 

Dezinformatsiya tadqiqotchisi, “Onlayn ayol bo‘lish: zo‘ravonlik va ta’qiblardan omon qolish va ularga qarshi kurashish” kitobi muallifi Nina Yankovich buni nazariy muammo sifatida emas, shaxsiy tajriba sifatida yozadi. Uning o‘zi ham roziligisiz yaratilgan pornografik dipfeyk videolar qurboni bo‘ldi. Bu alohida holat emas. Yankovich keltirgan misollar bu hodisaning tizimli ekanini ko‘rsatadi.

Muallifning fikriga ko‘ra, dipfeyk pornografiyaning eng ko‘p nishonlari jamoatchilik e’tiboridagi ayollar. Masalan, AQShning sobiq davlat kotibi Hillari Klinton, ekologiya faoli Greta Tunberg, jurnalistlar, siyosiy maslahatchilar, olim ayollar.

Yankovich ta’kidlaydiki, mashhur dipfeyk saytlarini qidirganda, hatto erkak siyosatchilar nomidan chiqadigan sahifalar ham aslida ularning rafiqalari va qizlari haqidagi jinsiy xarakterdagi videolar bilan to‘lgan. Masalan, Donald Tramp nomi bilan chiqadigan sahifalarda uning o‘zi emas, balki turmush o‘rtog‘i va qizi tasvirlangan dipfeyk videolar joylashtirilgan. Bu tasodif emas. Bu yerda maqsad erkak siyosatchini emas, u  orqali ayolni xo‘rlash yotibdi.

Nima uchun deyarli hammasi ayollar?

Tadqiqotlar shuni ko‘rsatadiki, barcha dipfeyk videolarining 96 foizi — roziliksiz pornografiya va ularning mutlaq ko‘pchiligi ayollarga qarshi qaratilgan. Yankovich buni ochiq aytadi: mavjud yuz almashtirish va video generatsiya modellari ayol tanasiga moslab o‘rgatilgan. Ya’ni ular erkaklar tomonidan erkaklar ehtiyoji uchun yaratilgan. Shu sababli, hatto texnik jihatdan ham ayollar himoyasiz qolmoqda.

Bu yerda sun’iy intellekt “neytral texnologiya” emas — u mavjud notenglikni ko‘paytiruvchi vositaga aylangan. Yankovichning eng qimmatli fikrlaridan biri shu: dipfeyk videolar mukammal bo‘lishi shart emas. Yomon tahrirlangan, arzon, hatto kulgili ko‘ringan videolar ham o‘z vazifasini bajaradi. Chunki ularning maqsadi ishontirish emas. Maqsadi — shubha solish. Bu video rostmi yolg‘onmi ahamiyatsiz. U insonning obro‘siga soya tashlaydi. Ayolning davlat lavozimiga, ekspertlik maqomiga, jamoatchilik oldidagi so‘ziga ishonchni yo‘q qiladi.

Dipfeyk forumlaridagi muhokamalarni o‘rganar ekan, Yankovich yana bir xulosaga keladi: bu videolarni yaratayotganlar o‘z shaxsiy hayoti haqida juda qayg‘urishadi, ammo ayollarning shaxsiy hayoti ular uchun ahamiyatsiz, kimningdir eng shaxsiy obrazini roziliksiz pornografiyaga aylantirish ham haqiqiy zo‘ravonlik, jinsiy ekspluatatsiyaning yangi shakli.

Ayrim mamlakatlarda dipfeyk pornografiya uchun javobgarlik mavjud. Ammo amalda bu qurbonni himoya qilmaydi. Videoni kim joylashtirgani noma’lum bo‘ladi, serverlar boshqa davlatda, platformalar esa javobgarlikdan qochadi.

Shu sababli Yankovich qonun chiqaruvchilarga murojaat qilib, sun’iy intellektni “kelajak xavfi” deb muhokama qilishdan oldin, bugun ayollarni yo‘q qilayotgan amaliyotni to‘xtatishni talab qiladi.

Dipfeyk pornografiya bu axloq muammosi emas, bu siyosiy va demokratik muammo. U ayollarni sukutga majbur qiladi, ularni jamoat hayotidan siqib chiqaradi va qo‘rqitish orqali nazorat qiladi.

Agar jamiyat bunga javob qaytarmasa, internetda so‘z erkinligi haqida gapirish shunchaki o‘zimizni aldash va ikkiyuzlamachilik bo‘lib qoladi.

Nina Yankovich va Rana Ayyub misollaridan ko‘rinib turganidek, bu faqat texnologiya muammosi emas, balki ayollarni sukutga majbur qilish va ularning ijtimoiy ortiqchiliklarini kamsitish uchun rejali amaliy ta’sirdir.

Kiberxavfsizlik bilan shug‘ullanuvchi Home Security Heroes kompaniyasi tadqiqotiga ko‘ra, 2023 yilga kelib internetdagi dipfeyk videolar soni 100 mingga yaqinlashgan, bu 2019 yilga nisbatan 550 foizga ko‘p.

Dipfeyk-pornografiyaning ommalashishi — texnologiyaning arzonlashuvi va osonlashuvining to‘g‘ridan-to‘g‘ri oqibati. Realistik bir daqiqalik videoni yaratish uchun neyrotarmoqqa 30 daqiqadan kam vaqt kerak. Internetda esa bunday xizmatlarni bepul taklif qiladigan platformalar yetarli.

Pornoindustriyaning o‘zi ham qarshi kurashga shoshilmayapti: eng mashhur 10 ta pornosaytdan 7 tasi dipfeyk-kontentni bloklamaydi. Bu sohadagi saytlarning oylik trafigi 35 million ko‘rishdan oshadi.

Mutaxassislar ta’kidlashicha, bu yerda gap faqat qiziqish haqida emas — shaxsiylashtirilgan fantaziya imkoniyati ham talabni oshirmoqda. Istalgan insonni “kontent qahramoni”ga aylantirish mumkin.

Zo‘ravonlikdan jabrlanganlarga yordam beruvchi “Sestri” markazi mutaxassisi Anna Bogomolova shunday deydi:

“Ayolga ob’yekt sifatida qarash, onlayn muhitdagi mizoginiya dipfeyk yaratuvchilarga o‘zini haq deb his qilish imkonini beradi. Ular buni jazo yoki qasos shakli sifatida ko‘radi — xuddi pornoqasos kabi”.

Bugun ayolni jim qilish uchun qamoq shart emas, tayoq shart emas. Internetda uni yechintirib qo‘yish yetarli.

Shu bois, mutaxassislar sun’iy intellekt soxtalashtirishini internetda aniqlashda va unga qarshi turishda quyidagi maslahatlarni beradi:

Vizual detallarga e’tibor bering. Yuz va terining notabiiy jilolanishi, soyalar va yorug‘likning izchil emasligi, yuz chekkalari va tishlarning mos emasligi — bu dipfeykning birinchi alomatlari.

Kontekst va tasvir tarixini tekshiring. Agar bir fotosurat yoki video faqat yakka manbaada paydo bo‘layotgan bo‘lsa yoki boshqa rasmiy tasvirlar bilan muvofiq kelmasa, bu soxta bo‘lishi mumkin. Tanqidiy  fikrlang. Hatto yuqori sifatli soxta videolar ham odamlarning notanqidiy qabul qilishini osonlashtirishi mumkin. Faqat texnologiyaga ishonib qolmang, har doim kontekst va manbalarni solishtiring.

Autentifikator vositalaridan foydalaning. Sensity, Reality Defender, Deepfake-o-meter, DuckGoose.AI, AI-Generated Content Detection kabi instrumentlar rasm va videolarning haqiqiyligini baholashda yordam beradi, ammo ular ham hech qachon 100% kafolat bermaydi.

Bugun bir video saylov natijasini o‘zgartiradi, bir audio urushga sabab bo‘lishi mumkin, bir “kiyimsiz” tasvir esa inson hayotini vayron qiladi.

Sun’iy intellekt yordamida yaratilgan dipfeyklar nafaqat texnologiya yutug‘i, balki jinsiylashtirilgan raqamli zo‘ravonlik quroliga aylandi. Birgina tasvir orqali insonning obro‘sini yo‘qotish yoki jamiyat oldida sharmanda qilish mumkin. Shu bilan birga, ko‘plab mamlakatlarda qonun hali ham bunday tasvir va videolarni to‘liq jinoyat sifatida tan olmagani afsuslanarli.

Barno Sultonova

Комментарии 0

Зарегистрируйтесь, чтобы оставлять комментарии

Вход

Заходите через социальные сети