Qanday qilib sun'iy intellekt o'zining xavfli avlodlarini kuzatishi mumkin

Mundarija:

Qanday qilib sun'iy intellekt o'zining xavfli avlodlarini kuzatishi mumkin
Qanday qilib sun'iy intellekt o'zining xavfli avlodlarini kuzatishi mumkin
Anonim

Asosiy takliflar

  • Yangi maqolada ta'kidlanishicha, sun'iy intellekt qaysi tadqiqot loyihalari boshqalarga qaraganda ko'proq tartibga solinishi kerakligini aniqlashi mumkin.
  • Bu AI qanday xavfli boʻlishi mumkinligini aniqlash boʻyicha oʻsib borayotgan saʼy-harakatlarning bir qismidir.
  • Mutaxassislardan biri sun'iy intellektning haqiqiy xavfi shundaki, u odamlarni soqov qilib qo'yishi mumkin.

Image
Image

Sun'iy intellekt (AI) ko'plab afzalliklarni taqdim etadi, ammo ba'zi bir xavflarni ham taqdim etadi. Endi esa tadqiqotchilar o‘zlarining kompyuterlashtirilgan ijodlarini kuzatib borish usulini taklif qilishdi.

Xalqaro guruh yangi maqolasida aytilishicha, AI qaysi turdagi tadqiqot loyihalari boshqalarga qaraganda ko'proq tartibga solishga muhtoj bo'lishi mumkinligini aniqlay oladi. Olimlar biologiya va matematika tushunchalarini birlashtirgan modeldan foydalanishdi va AI qanday xavfli bo‘lishi mumkinligini aniqlash bo‘yicha ortib borayotgan sa’y-harakatlarning bir qismidir.

"Albatta, agar biz shunday qaror qilsak, sun'iy intellektdan "fantastik" xavfli foydalanish paydo bo'lishi mumkin […], AIni xavfli qiladigan narsa sun'iy intellektning o'zi emas, balki [uni qanday ishlatishimiz] "," Thierry Rayna, Frantsiyadagi École Polytechnique universitetining o'zgarish texnologiyasi kafedrasi Lifewire nashriga elektron pochta orqali bergan intervyusida aytdi. “AIni tatbiq etish kompetensiyani oshirish (masalan, u inson/ishchi ko‘nikma va bilimlarining dolzarbligini kuchaytiradi) yoki kompetentsiyani yo‘q qilish, ya’ni sun’iy intellekt mavjud ko‘nikma va bilimlarni kamroq foydali yoki eskirgan holga keltiradi.”

Yorliqlarni saqlash

Yaqinda chop etilgan maqola mualliflari oʻz postlarida gipotetik AI musobaqalarini taqlid qilish uchun model yaratganliklarini yozishgan. Haqiqiy AI poygalari qanday ishlashini bashorat qilishga urinish uchun ular simulyatsiyani yuzlab marta oʻtkazishdi.

"Biz aniqlagan o'zgaruvchi, ayniqsa, poyganing "uzunligi" bo'ldi, ya'ni simulyatsiya qilingan poygalar o'z maqsadiga (funktsional sun'iy intellekt mahsuloti) erishish uchun kerak bo'lgan vaqt edi", deb yozadi olimlar. "AI poygalari tezda o'z maqsadiga erishganida, biz xavfsizlik choralariga e'tibor bermaslik uchun kodlagan raqobatchilar har doim g'alaba qozonishini aniqladik."

Aksincha, tadqiqotchilar uzoq muddatli AI loyihalari unchalik xavfli emasligini aniqladilar, chunki har doim ham xavfsizlikni e'tiborsiz qoldiradiganlar g'olib bo'lishmagan. "Ushbu topilmalarni hisobga olgan holda, tartibga soluvchilar uchun turli xil sun'iy intellekt poygalari qancha davom etishini aniqlashlari muhim bo'ladi, ular kutilgan vaqt shkalasi asosida turli qoidalarni qo'llaydilar", deb yozishdi ular. "Bizning topilmalarimiz shuni ko'rsatadiki, barcha AI poygalari uchun bitta qoida - sprintdan marafongacha - idealdan uzoq bo'lgan ba'zi natijalarga olib keladi."

Sun'iy intellekt bo'yicha maslahat beruvchi Coda Strategy kompaniyasining boshqaruvchi direktori Devid Chjao Lifewire bilan elektron pochta orqali suhbatda xavfli sun'iy intellektni aniqlash qiyin bo'lishi mumkinligini aytdi. Muammolar shundan iboratki, AIga zamonaviy yondashuvlar chuqur o‘rganishga yondashadi.

"Biz chuqur o'rganish tasvirni aniqlash yoki nutqni aniqlash kabi ko'plab foydalanish holatlarida yaxshi natijalarga olib kelishini bilamiz", dedi Chjao. "Biroq, odamlar uchun chuqur o'rganish algoritmi qanday ishlashini va u o'z natijasini qanday ishlab chiqarishini tushunishning iloji yo'q. Shu sababli, yaxshi natijalar beradigan AI xavfli yoki yo'qligini aytish qiyin, chunki odamlar nima bo'layotganini tushunishlari mumkin emas."

Dasturiy ta'minot tanqidiy tizimlarda qo'llanilganda "xavfli" bo'lishi mumkin, bu zaifliklardan yomon aktyorlar foydalanishi yoki noto'g'ri natijalar berishi mumkin, dedi MixMode AI firmasining strategiya bo'yicha direktori Mett Shea elektron pochta orqali. Uning qo‘shimcha qilishicha, xavfli sun’iy intellekt natijalarni noto‘g‘ri tasniflash, ma’lumotlar yo‘qolishi, iqtisodiy ta’sir yoki jismoniy zararga ham olib kelishi mumkin.

"An'anaviy dasturiy ta'minot yordamida ishlab chiquvchilar algoritmlarni kodlaydilar, ularni manba kodiga qarab zaiflikni qanday ulash yoki xatoni tuzatishni aniqlash uchun odam tekshiradi", dedi Shea."Ammo sun'iy intellekt yordamida mantiqning asosiy qismi ma'lumotlarning o'zidan yaratilgan bo'lib, neyron tarmoqlar va shunga o'xshash ma'lumotlar tuzilmalariga kodlangan. Natijada zaifliklarni topish va tuzatish uchun tekshirib bo'lmaydigan "qora qutilar" bo'lgan tizimlar paydo bo'ladi. oddiy dastur kabi."

Xavflar oldindami?

Terminator kabi filmlarda sun'iy intellekt insoniyatni yo'q qilmoqchi bo'lgan yovuz kuch sifatida tasvirlangan bo'lsa-da, ekspertlarning fikriga ko'ra, haqiqiy xavflar ko'proq prozaik bo'lishi mumkin. Masalan, Rayna AI bizni aqldan ozdirishi mumkinligini aytadi.

“Bu odamlarni miyasini mashq qilishdan va tajribani rivojlantirishdan mahrum qilishi mumkin”, dedi u. “Agar koʻp vaqtingizni startap dasturlarini oʻqishga sarflamasangiz, qanday qilib venchur kapital boʻyicha mutaxassis boʻlishingiz mumkin? Bundan ham yomoni, sun'iy intellekt "qora quti" bo'lib, uni tushuntirib bo'lmaydi. AI bo'yicha ma'lum bir qaror nima uchun qabul qilinganini bilmaslik, undan o'rganish uchun juda kam narsa bo'ladi, xuddi Segwayda stadion bo'ylab haydab, mutaxassis yuguruvchi bo'la olmasligingiz kabi.”

Yaxshi natijalar beradigan sun'iy intellekt xavfli yoki yo'qligini aytish qiyin, chunki odamlar nima bo'layotganini tushunishlari mumkin emas.

Ehtimol, sun'iy intellektning eng to'g'ridan-to'g'ri tahdidi uning noxolis natijalar berishi mumkinligidir, dedi AIning huquqiy oqibatlari haqida yozuvchi advokat Layl Solomon elektron pochta orqali bergan intervyusida.

"AI jamiyatdagi tafovutlarni chuqurlashtirishga yordam berishi mumkin. AI mohiyatan odamlardan to'plangan ma'lumotlar asosida yaratilgan ", deya qo'shimcha qildi Sulaymon. "[Ammo] katta ma'lumotlarga qaramay, u minimal kichik to'plamlarni o'z ichiga oladi va hamma o'ylaydigan narsalarni o'z ichiga olmaydi. Shunday qilib, sharhlar, ommaviy xabarlar, sharhlar va hokazolardan to'plangan ma'lumotlar, o'ziga xos tomonlarga ega bo'lgan holda, AI diskriminatsiya va nafratni kuchaytiradi."

Tavsiya: