Жасанды интеллект адамға шабуыл жасауы мүмкін бе?

Жасанды интеллект бойынша әлемде ең танымал саналатын екі ғалым адамнан да ақылды жасанды интеллект бақылаудан шығып кетуі мүмкін екенін ескертеді. Онда олар адамға шабуыл жасауы мүмкін бе?

CNBC телеарнасының хабарламасына сүйенген Aikyn.kz жасанды интеллект қауіптерінің ықтималдығын талдайды.

AGI адамнан да ақылды, ол адам өмірінің барлық саласында жұмыс істей береді. Иллюстрация gadget.co.za сайтынан алынды. Авторлығы: Microsoft Bing Image creator

Йошуа Бенджио (Yoshua Bengio) мен Макс Тегмарк (Max Tegmark) бақылаудан шығып кеткен ЖИ-дің қауіпті екендігін ескертті. Тегмарктің пікірінше, бізге «аспаптық ЖИ» деп аталатын белгілі бір саламен шектелген, тар ауқымда ғана жұмыс істейтін ақылды жүйелер керек. Ал «ЖИ агенті» (AGI, Жалпы ЖИ) адамнан да ақылды, ол адам өмірінің барлық саласында жұмыс істей береді. Ондай агенттерді жасаушылар интеллектуалды жүйені бақылаудан шығарып алса, бұндай ақылды машиналар адамға қауіпті болуы мүмкін. 

Сейсенбіде (6 ақпан) шыққан CNBC арнасының Beyond The Valley подкастының соңғы эпизодында MIT профессоры Макс Тегмарк пен Монреаль университетінің профессоры Йошуа Бенджио Жалпы жасанды интеллект туралы алаңдаушылықтарын білдірді.

Әлемдегі ең ірі компаниялар қазір «ЖИ агенттері» немесе «агенттік ЖИ» жүйелерін жасауда. Бұндай жүйелер адамға көмекші немесе агент ретінде әрекет етеді, жұмыста және күнделікті өмірде барлық тапсырмаларды орындай алады. Осы Жалпы ЖИ үлгілері қашан жасалатыны туралы әртүрлі болжамдар айтылады.

Yoshua Bengio мен Max Tegmark бақылаудан шығып кеткен жалпы ЖИ-дің қауіпті екенін ескертеді. Фото CNBC сайтынан алынды

Бенджионың айтуынша, Жалпы ЖИ жүйелері өз бетінше «белсенділік» көрсетіп, жеке мақсат, ойларды тұжырымдай алады. 

«Жасанды интеллект зерттеушілері машиналық интеллект жасау үшін адам интеллектінен шабыттанды. Адамдар өз алдына мақсат қою қабілетіне ие және осы мақсаттарына жету үшін жинаған тәжірибесі мен  білімін пайдаланады. Қазір біз AGI-ді жасауға кірістік. Біз оларға әлем туралы көп нәрсені үйреттік. Осы білімнің негізінде әрекет ете алатын агенттер жасауды қолға алдық. Бірақ іс жүзінде бұл өте қауіпті мәселе», – дейді Йошуа Бенджио.

Бұндай жол планетамызда жаңа түрді немесе жаңа интеллектуалды тіршілік иесін жасауға ұқсайды. Бірақ жансыз интеллектің қалай әрекет ететінін білмейміз. Егер ЖИ адамның араласуынсыз өзіне мақсат қоятын болса,  біз қиын жағдайға тап болуымыз мүмкін. ЖИ-де өзін-өзі сақтау идеясы пайда болса, онда ақылды машиналарда «Адамдар маған не үшін керек?» деген сұрақ пайда болмай ма? Екі профессор да өзін-өзі сақтау идеясы ЖИ-дың мақсатына айналуы мүмкін екенін ескертеді.

Адамдар қуатты ЖИ жүйелерін жасамас бұрын, негізгі қауіпсіздік стандарттарын енгізуі керек. Иллюстрация vitelglobal.com сайтынан алынды. Авторлығы: Prasanna Dasari

ЖИ-дің қауіптерін азайту үшін MIT профессоры Макс Тегмарк «аспаптық ЖИ» жүйесімен ғана айналысуды ұсынады. Олар көлік жүргізеді, шахмат ойнайды, жаңа дәрілер ойлап шығарады. Бірақ тек бір салаға ғана маманданады және Жалпы ЖИ сияқты өз бетінше мақсат қоя алмайды. Сондықтан да оны бақылау қиынға түспейді.

«Менің ойымша, біз ЖИ-дан қалағанымыздың бәрін ала аламыз. Алайда адамдар қуатты ЖИ жүйелерін жасамас бұрын, негізгі қауіпсіздік стандарттарын енгізуі керек», – дейді Тегмарк.

Интеллектуалды машиналарды қалай қауіпсіз басқаруға, қолдануға болатынын білмей тұрып, адам өзінен әлдеқайда ақылды роботтар жасамауы тиіс. Қазірше ондай AGI жүйелері қашан пайда болатыны туралы бірнеше болжамдар бар.

OpenAI бас директоры Сэм Альтман оның компаниясы AGI құруды білетінін айтады және оны тез жасауға болатынына сенімді. Оның болжамы бойынша, AGI көптеген адамдар ойлағаннан да тезірек жасалады, бірақ ондай ЖИ біз ойлағандай аса ықпалды бола алмайды.

Сараптама, зерттеу мақала, күнделікті өзекті ақпаратты «Айқынның» TELEGRAM арнасынан табасыз.