Facebook’ning Deepfake texnologiyasi bizni qutqarmaydi, deydi ekspertlar

Mundarija:

Facebook’ning Deepfake texnologiyasi bizni qutqarmaydi, deydi ekspertlar
Facebook’ning Deepfake texnologiyasi bizni qutqarmaydi, deydi ekspertlar
Anonim

Asosiy takliflar

  • Deepfakelarni yaratish osonlashgani sayin, ularni aniqlashning yangi va takomillashtirilgan usullari ustuvor vazifaga aylandi.
  • Facebook’ning deepfake-ni aniqlash texnologiyasi videoning chuqur soxta ekanligini yoki yoʻqligini aniqlash uchun teskari mashina oʻrganishdan foydalanadi.
  • Mutaxassislarning taʼkidlashicha, blokcheyn texnologiyasidan foydalanish videoning haqiqiy yoki haqiqiy emasligini aniqlashning eng yaxshi usuli boʻladi, chunki usul kontekstual maʼlumotlarga tayanadi.
Image
Image

Facebook chuqur soxta narsalarga qarshi kurashish uchun oʻzining mashina oʻrganish modeliga ishonadi, biroq ekspertlarning taʼkidlashicha, mashinani oʻrganish oʻz-oʻzidan bizni deepfakes tomonidan aldanib qolishdan qutqarmaydi.

Facebook, Microsoft va Google kabi kompaniyalar internet va ijtimoiy tarmoqlar boʻylab tarqalib ketmaydigan falajlarga qarshi kurashmoqda. Usullar bir-biridan farq qilsa-da, bu yolg‘on videolarni aniqlashning bir usuli bor: blokcheynlar.

“[Blokcheynlar] sizga chuqur fakeni tekshirish uchun juda koʻp imkoniyatlarni beradi, bu men koʻra oladigan tasdiqlashning eng yaxshi shaklidir”, Stiven Volfram, Wolfram Research asoschisi va bosh direktori va “A New Kind of” kitobining muallifi. Bu haqda Lifewire’ga telefon orqali Science ma’lum qildi.

Facebook-ning Deepfake-ni aniqlash texnologiyasi

Deepfake texnologiyasi soʻnggi bir necha yil ichida tez rivojlandi. Chalg‘ituvchi videolarda kimningdir yuzini boshqa odamning tanasiga surtish, fon sharoitlarini o‘zgartirish, soxta lab sinxronlash va boshqalarni bajarish uchun mashinani o‘rganish usullari qo‘llaniladi. Ular zararsiz parodiyalardan tortib, mashhur kishilar yoki jamoat arboblarini o‘zlari qilmagan narsani aytishi yoki qilishga majburlashgacha.

Mutaxassislarning ta'kidlashicha, texnologiya tez sur'atlar bilan rivojlanmoqda va texnologiya yanada kengroq mavjud va innovatsion bo'lishi bilan "deepfakes" yanada ishonchli (va yaratish osonroq) bo'ladi.

Image
Image

Facebook yaqinda Michigan shtati universiteti bilan hamkorlikda oʻzining chuqur soxtalikni aniqlash texnologiyasi haqida koʻproq maʼlumot berdi. Ijtimoiy tarmoqning taʼkidlashicha, u sunʼiy intellekt yordamida yaratilgan yagona tasvirdan uni yaratishda foydalaniladigan generativ modelgacha boʻlgan teskari muhandislikka tayanadi.

Facebook bilan ishlagan tadqiqotchi olimlarning ta'kidlashicha, bu usul AI modeli ortida chuqur fake yaratishda foydalanilgan noyob naqshlarni ochishga asoslangan.

“Ochiq toʻplamda tanib olish uchun tasvir atributini umumlashtirib, biz chuqur fayk yaratishda foydalanilgan generativ model haqida koʻproq maʼlumot olishimiz mumkin, bu uning ilgari koʻrilmaganligini tan olishdan tashqari. Deepfakelar to‘plamining naqshlari o‘rtasidagi o‘xshashliklarni kuzatish orqali biz bir qator tasvirlar bitta manbadan kelib chiqqanligini ham aniqlashimiz mumkin”, - deb yozgan tadqiqotchilar Si Yin va Tan Xassner Facebook’ning blogida uning chuqur faylarni aniqlash usuli haqida.

Image
Image

Volframning ta'kidlashicha, ilg'or AI modelini (deepfake) aniqlash uchun mashina o'rganishdan foydalanish mantiqan. Biroq, texnologiyani aldash uchun har doim joy bor.

“Men [deepfakelarni aniqlashning] munosib mashina oʻrganish usuli borligiga hayron emasman”, dedi Volfram. “Yagona savol shundaki, agar siz yetarlicha harakat qilsangiz, uni alday olasizmi? Ishonchim komilki, qila olasiz.”

Deepfakesga qarshi kurash boshqacha

Buning oʻrniga, Volfram blockchain-dan foydalanish maʼlum turdagi deepfakelarni aniq aniqlashning eng yaxshi varianti boʻlishiga ishonishini aytdi. Uning blokcheyndan mashinani o‘rganish orqali foydalanish haqidagi fikri 2019-yilga borib taqaladi va u oxir-oqibatda blokcheyn yondashuvi chuqur soxta muammomizga aniqroq yechim berishi mumkinligini aytdi.

“Men rasm va video tomoshabinlar blokcheynlarni (va “maʼlumotlar triangulyatsiyasi hisob-kitoblari”ni) muntazam ravishda tekshirib turishini kutardim, xuddi veb-brauzerlar xavfsizlik sertifikatlarini tekshirishlari kabi”, deb yozadi Volfram Scientific American jurnalida chop etilgan maqolada.

Blokcheynlar ma'lumotlarni xronologik tartibda bir-biriga bog'langan bloklarda saqlagani va markazlashtirilmagan blokcheynlar o'zgarmasligi sababli kiritilgan ma'lumotlar qaytarib bo'lmaydi.

Yagona savol shuki, agar siz yetarlicha kuch sarflasangiz, uni alday olasizmi? Ishonchim komilki, qila olasiz.

Volframning tushuntirishicha, videoni blokcheynga qoʻyish orqali siz u olingan vaqt, joylashuv va boshqa kontekstual maʼlumotlarni koʻrishingiz mumkin boʻlib, u qandaydir tarzda oʻzgartirilganligini aniqlash imkonini beradi.

“Umuman olganda, rasm yoki videoni kontekstga moslashtiruvchi metamaʼlumotlar qancha koʻp boʻlsa, buni ayta olish imkoniyati shunchalik yuqori boʻladi”, dedi u. “Siz blokcheynda vaqtni soxtalashtira olmaysiz.”

Biroq, Volframning ta'kidlashicha, ishlatiladigan usul - bu mashinani o'rganish yoki blokcheyndan foydalanish - siz himoya qilmoqchi bo'lgan deepfake turiga bog'liq (ya'ni, Kim Kardashianning ahmoqona gapirayotgan videosi yoki videosi). siyosatchi bayonot yoki taklif bildirmoqda).

“Blokcheyn yondashuvi ma’lum turdagi chuqur soxta narsalardan himoya qiladi, xuddi mashinada tasvirni qayta ishlash ma’lum turdagi chuqur soxta narsalardan himoya qilganidek”, dedi u.

Xulosa, kelajagi soxta toshqinga qarshi kurashda hammamiz uchun hushyorlikdir.

Tavsiya: