Deepfake нұсқалары жасанды интеллект көмегімен өте жеңіл жасалатын болды. Жалған бейне-қоңырауға алданған қаржы қызметкері туралы gizmodo.com сайтында жарияланған мақалаға сілтеме жасаған Aikyn.kz зиянды технологиядан қорғану жолдарын ұсынады.
Том Круздің дипфейк нұсқасын жасау. Фото happycoin.club сайтынан алынды
Deepfake сөзі ағылшын тілінен (deep learning + fake) терең үйрену және жалған деген тіркестерден құралған. Бұл технология өмірдегі нақты адамның жалған бейнелері мен дауысын ұқсатуға арналған технология. Бүгінде бұл жасанды интеллект көмегімен оңай жүзеге асады.
Гонконгтағы бір компанияның қаржы қызметкері бірнеше әріптестерімен және бас қаржы директорымен бейне-қоңырауға қосылады.
Оған барлығы шынайы болып көрінеді, бірақ кейіннен әңгімеге қатысушылардың барлығы deepfake екені анықталады. Өткен жексенбі күні CNN хабарлағандай, қызметкер белгісіз алданып алаяқтарға 25 миллион доллардан астам ақшаны аударып жібереді.
Гонконг полициясының өкілі Чан Шун-цзин журналистерге түсініктеме беруде. Фото Getty Images сайтынан алынды. Авторы: Dickson Lee
«Бірнеше адам қатысқан бейнеконференцияда оның әңгімелескен адамдарының барлығы фейк нұсқа екені анықталды», – дейді Гонконг полициясының өкілі Чан Шун-цзин.
Гонконг полиция департаменті бұл жағдайда компанияның да, алданып қалған қызметкердің де аты-жөнін жария етпеген, бірақ бұл бүгінгі күнге дейін жасалған ең үлкен жалған қаржылық қылмыстардың бірі болып саналуда.
Алғашында қызметкер өз компаниясының қаржы директорынан 25,6 миллион доллар аударуды тапсырған бірнеше хат алады. Ол бұл фишингтік алаяқтық деп ойлап, басшысымен бейнеқоңырау арқылы сөйлесіп сұраудың заңды екеніне көз жеткізгісі келеді.
Құқық қорғау органдары бейнеконференция форматындағы әңгімелесу барысында әріптестерінің бейнесі де, дауысы да қатты ұқсайтын бірнеше адамды танығанын айтады. CNN-нің хабарлауынша, ол бұл алаяқтық екенін аптаның соңында компанияның бас кеңсесіне хабарласқанда ғана білген.
Дипфейктерді жасау тәсілдерін мына видеода әлемдік кино индустрияның жұлдызы Том Круздің мысалында көруге болады: Қаскөйлер ұйымдастырған бейне-конференция кездесуге қатысушылардың желідегі қолжетімді жазбалары арқылы цифрлық түрде қайта жасалған. Компанияға бірнеше қаскөй шабуыл жасады деген болжам бар.
Гонконг полиция департаменті бұл Deepfake технологиясы бойынша алаяқтыққа қатысты көптеген оқиғалардың бірі екенін атап өткен. Ведомствоның хабарлауынша, алаяқтыққа қатысты алты адам ұсталған.
Гонконг полиция департаментінің аға инспекторы адамның шынайы екенін тексерудің бірнеше әдісін ұсынады. Оларға бастарын жылжытуды сұрау немесе олардың түпнұсқалығын анықтау үшін бірнеше сұрақтар қою керек. Бастықтан бұндай сұраулар ыңғайсыз болса да дипфейк дәуірінде жалған технологиялардан сақтанудың ең тиімді жолдары осы.
Deepfake технологиясы соңғы апталарда әлемді бірнеше рет дүрліктірді. Жасанды интеллект технологиясы жетіле бастағаны сонша, ненің шынайы, ненің жалған екенін мамандардың өздері де бірден ажырата алмауда.
Уақыт тауып РБК арнасының Deepfake технологиясы туралы мына фильмін қарап шығуға кеңес береміз, 20 минут: Deepfake технологиялары барған сайын сенімді бола түсуде және біз оларды жиі кездестіреміз. Алғашында бұл технологиялар күрделі құрал-жабдықтары мен кәсіби білімі бар мамандарға ғана қолжетімді болған еді. Ал қазір смартфоны бар кез келген адам мұндай қолданбаның көмегімен өте шынайы, сенімді сурет немесе видео жасай алады. Оны мамандар арнайы құрылғылар арқылы ғана ажырата алады.
Атақты адамдарға дипфейк өте жиі жасалады:
Бұл технологиялар өтірікті шындай етіп таратуды жеңілдетеді және әрбір желіні қолданушы онлайн технологияның құрбаны болуы мүмкін. Әсіресе, желіде цифрлық іздерін көп қалдыратын қолданушылар.
Қаңтар айында Тейлор Свифттің AI арқылы жасалған ашық суреттері вирусқа айналса, АҚШ Президентінің deepfake нұқсқасы Нью-Гэмпшир сайлаушыларын дауыс бермеуге шақырған.
Мына екі видеоның біреуі шынайы, екіншісі deepfake үлгісінде жасалған. Өздеріңіз ажыратып көріңіздер:
Қазақ елінің Президенті мен танымал тұлғаларының deepfake видеолары да желіде әртүрлі маркетингтік науқандарда жиі көріне бастады.
Сондықтан желідегі әрбір ақпаратқа, әрбір қоңырауға, әрбір хабарламаға аса сақтықпен қарауға шақырамыз. Қоғамның тұрақтылығына қауіпті, жеке адамдардың өміріне зиянды контентті өте сақтықпен, байыбына барып қана қабылдау керектігін ескерген дұрыс.