"Жасанды интеллект адамзатқа экзистенциалды қауіп төндіре ала ма?" деген мәселені талдаған newatlas.com сайтындағы мақалаға сүйенген Aikyn.kz басқаша болжам жасайды.
ЖИ көптеген адамдар ойлағандай үлкен экзистенциалды қауіп болмауы мүмкін. ChatGPT сияқты үлкен тілдік модельдер (LLM) тек нұсқауларды орындайды, жаңа дағдыларды өздігінен дамыта алмайды және табиғи түрде бақыланатын, болжамды және қауіпсіз жүйе. Бұл – оптимистік көзқарас.
«Америка Құрама Штаттарының президенті мемлекеттің бүкіл ядролық арсеналын енді жасанды интеллект жүйесі бақылайтынын жариялады. Түймені басқан кезде, ешқашан қателеспейтін, жаңа дағдыларды меңгеруге қабілетті және минут сайын күшейе түсетін өте ақылды машина соғыстың алдын алады. Машина ешбір міні жоқ, керемет тиімді.
Президент жаңа ЖИ жүйесін әзірлеген ғалымдарға алғыс айтып, құрметті қонақтарға тост ұсынып жатқанда, ақылды машина кенеттен хабарламалар жібере бастайды. Ол өзінің қойған талаптары дереу орындалмаса, ірі қаланы қиратамын деп қорқытады».
Бұл 2024 жылғы емес, 1970 жылғы «Колосс: Форбин жобасы» ғылыми-фантастикалық триллердің сюжеті. Фильмде әлемді оңай жаулап алатын суперкомпьютер туралы баяндалады. Мұндай идеялар 1940 жылдары алғашқы компьютерлер жасалғаннан бері көптеген кітапта, фильмдер мен видео ойындарда қайта-қайта айтылып келеді.
Соңғы жылдары ЖИ жүйелерінің жылдам дамуы бұрынғы қорқынышты одан сайын күшейтті. Егер адамзат ештеңе жасамаса, ЖИ өздігінен дамып, ертең адамның ақылына асып түсіп, адамды үй жануарларының деңгейінде қабылдауы мүмкін. Тіпті, адамзаттың зияны көп деп, оны жойып жіберуі де ықтимал. Бұл – пессимистік көзқарас.
Технологиялық ақыл-ой көшбасшылары да «ЖИ экзистенциалды қауіп төндіре ма?» деген сұраққа әртүрлі жауаптар береді.
«Технологиялардың мұндай түрі адамзатқа қауіп төндіреді деген көзқарас ЖИ жүйелерінің кең таралуына және дамуына кедергі келтіреді. Назар аударуды қажет ететін нақты мәселелерді шешуге көмектеспейді. Модельдер үлкейіп, біз қазір болжай алмайтын жаңа мәселелерді шеше бастайды. Мұндай үлкен модельдер жаңа қабілеттерге, соның ішінде ойлауға және жоспарлауға үйреніп, адамға қауіп төндіреді деген үрей бар», – дейді ғылым докторы Хариш Тайяр Мадабуши.
Егер осы ЖИ модельдерін мұқият зерттесек, олардың үйретілген тақырыптар бойынша ғана адамға жақсы көмекші бола алатынын көреміз. Олар инженерлер үйреткен нұсқаулардан асып кете алмайды немесе нақты нұсқауларсыз жаңа дағдыларды өздігінен үйренуге қабілетсіз. Басқаша айтқанда, олар өзінің тар ауқымды тақырыбынан басқа өздігінен жаңа білім тауып, оны игере алмайды.
Адамның қолындағы ЖИ жүйелері адамға қауіпсіз деп айта алмаймыз. ЖИ жүйелері қазірдің өзінде тамаша мүмкіндіктерге ие және жақын арада күрделі мәселелерді шешуге қабілетті болады. Олардың ақпаратты бұрмалау (манипуляция), жалған жаңалықтар жасау, тікелей алаяқтық жасау, өтірік ақпарат беру және шындықты жасыру сияқты қорқынышты әлеуеті бар.
Сондықтан қауіп ақылды машиналардан емес, оларды жасайтын және басқаратын адамдардан келеді. Компьютер емес, қаскөйлердің қолына түскен ЖИ жүйелері қорқынышты.
Сараптама, зерттеу мақала, күнделікті өзекті ақпаратты «Айқынның» TELEGRAM арнасынан табасыз.