CNBC телеарнасының хабарламасына сүйенген Aikyn.kz жасанды интеллект қауіптерінің ықтималдығын талдайды.
Йошуа Бенджио (Yoshua Bengio) мен Макс Тегмарк (Max Tegmark) бақылаудан шығып кеткен ЖИ-дің қауіпті екендігін ескертті. Тегмарктің пікірінше, бізге «аспаптық ЖИ» деп аталатын белгілі бір саламен шектелген, тар ауқымда ғана жұмыс істейтін ақылды жүйелер керек. Ал «ЖИ агенті» (AGI, Жалпы ЖИ) адамнан да ақылды, ол адам өмірінің барлық саласында жұмыс істей береді. Ондай агенттерді жасаушылар интеллектуалды жүйені бақылаудан шығарып алса, бұндай ақылды машиналар адамға қауіпті болуы мүмкін.
Сейсенбіде (6 ақпан) шыққан CNBC арнасының Beyond The Valley подкастының соңғы эпизодында MIT профессоры Макс Тегмарк пен Монреаль университетінің профессоры Йошуа Бенджио Жалпы жасанды интеллект туралы алаңдаушылықтарын білдірді.
Әлемдегі ең ірі компаниялар қазір «ЖИ агенттері» немесе «агенттік ЖИ» жүйелерін жасауда. Бұндай жүйелер адамға көмекші немесе агент ретінде әрекет етеді, жұмыста және күнделікті өмірде барлық тапсырмаларды орындай алады. Осы Жалпы ЖИ үлгілері қашан жасалатыны туралы әртүрлі болжамдар айтылады.
Бенджионың айтуынша, Жалпы ЖИ жүйелері өз бетінше «белсенділік» көрсетіп, жеке мақсат, ойларды тұжырымдай алады.
«Жасанды интеллект зерттеушілері машиналық интеллект жасау үшін адам интеллектінен шабыттанды. Адамдар өз алдына мақсат қою қабілетіне ие және осы мақсаттарына жету үшін жинаған тәжірибесі мен білімін пайдаланады. Қазір біз AGI-ді жасауға кірістік. Біз оларға әлем туралы көп нәрсені үйреттік. Осы білімнің негізінде әрекет ете алатын агенттер жасауды қолға алдық. Бірақ іс жүзінде бұл өте қауіпті мәселе», – дейді Йошуа Бенджио.
Бұндай жол планетамызда жаңа түрді немесе жаңа интеллектуалды тіршілік иесін жасауға ұқсайды. Бірақ жансыз интеллектің қалай әрекет ететінін білмейміз. Егер ЖИ адамның араласуынсыз өзіне мақсат қоятын болса, біз қиын жағдайға тап болуымыз мүмкін. ЖИ-де өзін-өзі сақтау идеясы пайда болса, онда ақылды машиналарда «Адамдар маған не үшін керек?» деген сұрақ пайда болмай ма? Екі профессор да өзін-өзі сақтау идеясы ЖИ-дың мақсатына айналуы мүмкін екенін ескертеді.
ЖИ-дің қауіптерін азайту үшін MIT профессоры Макс Тегмарк «аспаптық ЖИ» жүйесімен ғана айналысуды ұсынады. Олар көлік жүргізеді, шахмат ойнайды, жаңа дәрілер ойлап шығарады. Бірақ тек бір салаға ғана маманданады және Жалпы ЖИ сияқты өз бетінше мақсат қоя алмайды. Сондықтан да оны бақылау қиынға түспейді.
«Менің ойымша, біз ЖИ-дан қалағанымыздың бәрін ала аламыз. Алайда адамдар қуатты ЖИ жүйелерін жасамас бұрын, негізгі қауіпсіздік стандарттарын енгізуі керек», – дейді Тегмарк.
Интеллектуалды машиналарды қалай қауіпсіз басқаруға, қолдануға болатынын білмей тұрып, адам өзінен әлдеқайда ақылды роботтар жасамауы тиіс. Қазірше ондай AGI жүйелері қашан пайда болатыны туралы бірнеше болжамдар бар.
OpenAI бас директоры Сэм Альтман оның компаниясы AGI құруды білетінін айтады және оны тез жасауға болатынына сенімді. Оның болжамы бойынша, AGI көптеген адамдар ойлағаннан да тезірек жасалады, бірақ ондай ЖИ біз ойлағандай аса ықпалды бола алмайды.
Сараптама, зерттеу мақала, күнделікті өзекті ақпаратты «Айқынның» TELEGRAM арнасынан табасыз.