Robotlar Bilan Kurash: Taqiqlangan Ruxsat Berilmaydi

Mundarija:

Robotlar Bilan Kurash: Taqiqlangan Ruxsat Berilmaydi
Robotlar Bilan Kurash: Taqiqlangan Ruxsat Berilmaydi

Video: Robotlar Bilan Kurash: Taqiqlangan Ruxsat Berilmaydi

Video: Robotlar Bilan Kurash: Taqiqlangan Ruxsat Berilmaydi
Video: Robotlar....πŸ€–πŸ€– bolalar, ularning aqliy va fizikaviy salohiyatini yuksaltirish uchun.....πŸ›°οΈπŸ”­πŸ“‘πŸ”¬ 2024, May
Anonim

Mutaxassislar Jenevada uchrashdilar, ammo hech qanday kelishuvga erishilmadi: AQSh va Rossiya barcha ishlarga to'sqinlik qildi. Ehtimol, bu gegemonlarning shunchalik uyg'un ishlayotgan yagona vaqti.

Robotlar bilan kurash: taqiqlangan ruxsat berilmaydi
Robotlar bilan kurash: taqiqlangan ruxsat berilmaydi

G'ayriinsoniy qurollar to'g'risidagi konventsiya formatidagi ekspertlarning uchrashuvlari Jenevada jangovar robotlar deb nomlangan - nishonlarni engish uchun sun'iy aql ishlatadigan avtonom qurollarning taqdirini hal qilish uchun yakunlandi. Biroq, hech qanday kelishuvga erishilmadi. Qo'shma Shtatlar, Rossiya, Janubiy Koreya, Isroil va Avstraliya qotil robotlarga to'liq taqiq qo'yish haqidagi fikrni to'sib qo'yishga muvaffaq bo'lgan ozchilik davlatlar qatoriga kirdilar.

Shunday qilib, dunyoda hali ham ishlaydigan avtonom qurol bo'lmasa-da, texnologiya, boshqacha qilib aytganda, insonparvar bo'lib qoladi - uni ishlab chiqish va tadqiq qilish mumkin. Qizig'i shundaki, AQSh va Rossiya, Stokgolm Tinchlik Tadqiqot Instituti (SIPRI) ma'lumotlariga ko'ra, eng yirik qurol eksport qiluvchilar ro'yxatida birinchi o'rinni egallab turibdi. Janubiy Koreya, Isroil va Avstraliya ham ushbu reytingdan qolishmaydi - ular bozorning eng yaxshi 20 o'yinchisidan biri.

Va Xitoy (qurol-yarog'ning dunyodagi beshinchi eksportchisi, BMT Xavfsizlik Kengashining doimiy a'zosi, jangovar robotlarga taqiq qo'yilishini qo'llab-quvvatlasa-da, uchrashuvlar chog'ida tarozi yo'nalishini o'zgartirishga muvaffaq bo'lmadi. Bugungi kunda 26 mamlakat urushda sun'iy intellektdan foydalanishni taqiqlash. Boshqalar aniq pozitsiyadan qochishadi) Frantsiya va Germaniya (uchinchi va to'rtinchi qurol eksportchilari) insonning sun'iy aqldan ustunligini mustahkamlaydigan hujjatni imzolashni taklif qilmoqdalar, ammo ular ehtimol avtonom jangovar transport vositalarini ishlab chiqarishni istaganlar tomonida.

"Kichik harbiy gigantlar guruhining ko'pchilikning irodasini ushlab turishi, albatta, umidsizlikka uchraydi", - deya izoh berdi Jeneva uchrashuvlari natijalari bo'yicha Qotil robotlarni to'xtatish kampaniyasining koordinatori Meri Verhem.

Darhaqiqat, AQSh va Rossiya odatda muhim masalalarda hech bo'lmaganda qandaydir murosaga kela olmasligini hisobga olsak, vaziyat qurolli monopol boyliklarning fitnasiga o'xshaydi. Suriyani oling: Vashington va Moskva bu bahorda Suriyada kimyoviy qurol ishlatilgandan keyin bir-birlarining qarorlarini o'zaro to'sib qo'yishdi. Asfiksiya qiluvchi gazlar va harbiy maqsadlar uchun boshqa toksik moddalar, aytmoqchi, ilgari Insoniy qurollar to'g'risidagi konventsiya tomonidan taqiqlangan edi.

Qotil robotlar taqdiri bo'yicha navbatdagi uchrashuv Jenevada noyabr oyida bo'lib o'tadi.

Nima uchun ular avtonom qurollarni taqiqlashni xohlashadi

Robotlar urushini taqiqlash tarafdorlari jang maydoni sun'iy aql uchun joy emasligini ta'kidlamoqda. Ularning fikriga ko'ra, bunday texnologiyalar katta xavf tug'diradi. Hech bo'lmaganda, bugungi kunda mashina jangchilarni (jangovar harakatlarda bevosita ishtirok etadiganlarni) jangovar bo'lmaganlardan (faqat o'zini himoya qilish uchun qurol ishlata oladigan armiya xizmatining xodimlari) va umuman tinch aholini qanday ajratishi aniq emas. Asarda yaradorlar va taslim bo'lganlarni o'ldirish ehtimoli mavjud, bu amaldagi urush qoidalari bilan taqiqlangan.

Asarning barcha mojaro tomonlarini, hattoki bunday qurol egalarini ham xalaqit berishiga nima xalaqit beradi? Sun'iy aql elementlari allaqachon harbiy texnika, raketalarda muvaffaqiyatli qo'llanilmoqda; robotlar razvedka uchun jalb qilingan, ammo yakuniy so'z hali ham odamlarga tegishli. Avtonom qurollar qo'mondonlarning buyrug'iga bo'ysunmaydi - shuning uchun ular avtonomdir. Shuning uchun ham turli mamlakatlardagi harbiy generallar mashinalar kadrlar safiga kiritilishiga shubha bilan qarashadi.

Va yana bir ochiq savol - xalqaro terrorizm. Avtonom qurol texnologiyasi noto'g'ri qo'llarga tushishi va oxir oqibat uni buzish mumkin. Bir yil oldin Rossiya prezidenti Vladimir Putin sun'iy intellektni rivojlantirish bo'yicha etakchiga aylanadigan kishi dunyo hukmdori bo'ladi deb aytgan edi. Avtonom qurollar bilan bog'liq holda, bunday texnologiyalarga ega bo'lgan kishi dunyoning hukmdori bo'ladi. Va buning uchun, aslida, sizga faqat xavfsizlik tizimlaridan o'tadigan kompyuter va dodger kerak. Aytgancha, Pentagon bir necha bor buzilgan. Binobarin, avtonom qurollar daxlsiz bo'lib qolishiga hech kim kafolat berolmaydi.

Avtonom qurol tizimining ishlashi natijasida harbiy jinoyat sodir etilsa, kim qonuniy javobgar bo'lishi aniq emas. β€œQuroldan foydalangan muhandis, dasturchi, ishlab chiqaruvchi yoki qo'mondonmi? Agar javobgarlikni xalqaro gumanitar qonunchilik talablariga binoan aniqlash mumkin bo'lmasa, bunday tizimlarning joylashtirilishi qonuniy yoki axloqiy jihatdan oqlangan deb tan olinishi mumkinmi? Xalqaro Qizil Xoch Qo'mitasi ta'kidlaydi.

Qizig'i shundaki, olimlar jangovar robotlarni taqiqlashni ham qo'llab-quvvatladilar. Shu yilning iyul oyida ikki mingdan ziyod olimlar, xususan, Tesla va SpaceX yaratuvchisi Elon Mask va DeepMind asoschilaridan biri o'ldiradigan avtonom qurol ishlab chiqarmasliklari to'g'risida hujjat imzoladilar. Google ham xuddi shunday qildi. Texnologiya giganti Pentagonning Maven loyihasi ustida ishlashdan voz kechdi. Va 2017 yilda bir qator olimlar allaqachon BMTni qotil robotlar yaratishni taqiqlashga chaqirishgan.

Aytgancha, urushdagi sun'iy intellekt masalasi 2013 yil oxirida Birlashgan Millatlar Tashkilotining kun tartibida paydo bo'ldi, ammo o'sha paytdan beri deyarli hech narsa o'zgarmadi. Faqatgina bu yil G'ayriinsoniy qurollar to'g'risidagi konventsiya formatida ekspertlar uchrashuvlari boshlandi. Ya'ni, ozmi-ko'pmi amaliy samolyotga kelish uchun to'rt yildan ko'proq vaqt kerak bo'ldi.

Nima uchun ular avtonom qurollarni taqiqlashni xohlamaydilar

Qanday qilib har xil darajada yangramasin, qurollanish poygasi ular qotil robotlarni taqiqlashni istamasligining asosiy sababidir. Putin haq: kim avtonom qurolni qo'lga kiritsa, u dunyoda hukmronlik qiladi. Rasmiy ravishda bu sabab aytilgan.

Taqiqlovga qarshi bo'lganlarning asosiy argumenti - bu fuqarolarning sun'iy intellektini armiyadan ajratishning iloji yo'qligi. Shunga o'xshab, biz oshxona pichoqlarini terrorchilar ishlatishi uchungina taqiqlamaymiz. Darhaqiqat, sun'iy aqlning fuqarolik rivojlanishini harbiylardan ajratish deyarli mumkin emas. Ammo endi biz ushbu qurolni taqiqlash to'g'risida gaplashmoqdamiz, u maqsadlarni mustaqil ravishda aniqlay oladi va ularga hujum qiladi. Bu AQSh Mudofaa vazirligi Booz Allen Xemilton bilan birgalikda ish olib borayotgan Maven loyihasi bo'lishi mumkin (Google shartnomani rad etdi).

Maven ishlab chiqaruvchilari dronlarga, xususan, sun'iy yo'ldoshlardan olingan tasvirlarni tahlil qilishni va potentsial ravishda hujum maqsadlarini aniqlashni o'rgatmoqchi. Pentagon 2017 yil aprelida loyiha ustida ish boshladi va yil oxirigacha birinchi ish algoritmlarini olishga umid qildi. Ammo Google xodimlarining demarxi orqali rivojlanish kechiktirildi. Joriy yilning iyun oyidan boshlab, Gizmodo ma'lumotlariga ko'ra, tizim boshlang'ich ob'ektlarni - mashinalarni, odamlarni ajratib turishi mumkin edi, ammo qiyin vaziyatlarda u umuman ahamiyatsiz bo'lib chiqdi. Agar avtonom qurollarni taqiqlash baribir BMT darajasida qabul qilingan bo'lsa, loyihani bekor qilish kerak bo'ladi, Pentagon esa ularning rivojlanishi hayotni saqlab qolishi mumkin, chunki uni odamlar bilan taqqoslaganda aniqroq va ishonchli ishlash uchun dasturlash mumkin.

"Siz tushunishingiz kerakki, biz texnologiya haqida gaplashamiz, unda ishlaydigan namunalar yo'q. Bunday tizimlar g'oyasi hali ham juda yuzaki", - dedi Rossiya tashqi ishlar vazirligida Jenevadagi uchrashuv arafasida. - Bizning fikrimizcha, xalqaro huquq, xususan, gumanitar sohani avtonom qurollarga nisbatan qo'llash mumkin. Ular modernizatsiya qilish yoki hali mavjud bo'lmagan tizimlarga moslashishga muhtoj emaslar Β».

Va yana bir haqiqiy, ammo aytilmagan sabab - bu pul. Bugungi kunda harbiy sun'iy intellekt texnologiyalari bozori olti milliard dollardan oshiqroq baholanmoqda. Amerikaning MarketsandMarkets kompaniyasi tahlilchilarining fikriga ko'ra, 2025 yilga kelib bu ko'rsatkich uch baravar - 19 milliardga etadi. Eng yirik qurol eksport qiluvchilar uchun bu qotil robotlarni ishlab chiqishda har qanday cheklovlarni oldini olish uchun yaxshi turtki.

Taraqqiyotni to'xtatish mumkin emas

Avtonom qurollarni taqiqlash tarafdorlari ta'kidlashlaricha, texnologiya juda tez rivojlanmoqda va sun'iy intellekt oxir-oqibat qurolga aylanadi - vaqt masalasi. Ularning so'zlarida mantiq bor. Sun'iy intellekt hozirgi kunda ham davom etayotgan to'rtinchi ilmiy-texnikaviy inqilobning ajralmas qismidir. Shuni yodda tutish kerakki, texnik taraqqiyot u yoki bu tarzda harbiy harakatlar bilan bog'liq. Uchinchi ilmiy-texnika inqilobi XX asrning 50-yillari o'rtalariga qadar davom etdi, ya'ni uning eng yuqori cho'qqisi Ikkinchi Jahon urushi davriga to'g'ri keldi.

1949 yilda Jeneva urush paytida fuqarolarni himoya qilish to'g'risidagi konventsiyani qabul qildi. Urushdan keyingi davrda ular urush olib borish qoidalarini belgilab bergan 1907 yildagi IV Gaaga konventsiyasini ham to'ldirdilar. Ya'ni, Ikkinchi Jahon urushi dahshatlari ushbu jarayonning katalizatoriga aylandi. Shunday qilib, inson huquqlari himoyachilari Uchinchi Jahon Urushida insoniyatni avtonom qurollardan himoya qilish uchun kutishni istamaydilar. Shuning uchun qotil robotlar taqdirini hal qilish hozir zarur, deb ta'kidlaydilar ular.

Human Rights Watch ekspertlarining fikriga ko'ra, jangovar robotlardan foydalanish Martens deklaratsiyasiga ziddir - 1899 yilgi urush qonunlari va urf-odatlari to'g'risidagi Gaaga konvensiyasining muqaddimasi. Boshqacha qilib aytganda, qotil robotlar insoniyat qonunlarini va jamoat ongi talablarini buzmoqda (pozitsiya IV Gaaga konvensiyasida tasdiqlangan).

"Biz bunday qurol tizimlari butun dunyoga tarqalishidan oldin ularga qarshi profilaktik taqiq qo'yish uchun birgalikda ishlashimiz kerak", deydi Bonni Doxerti, Human Rights Watch qurollar bo'limining katta ilmiy xodimi.

Xo'sh, bu safar qotil robotlarni taqiqlash natija bermadi. Bashorat qilish mumkinki, noyabrdagi uchrashuvlar ham samarasiz bo'ladi. To'g'ri, deyarli barcha mamlakatlar bunga qo'shiladilar - bu tortishish kuchi bilan texnologiyaga yo'l qo'yib bo'lmaydi va jangovar robotlarga bunday to'xtash-kran kerak. Ammo insoniyat zarurat tug'ilganda uni tortib olishga ulguradimi yoki yo'qmi, hali ham aniq emas.

Tavsiya: