Жаңа технологиялар толғаныс пен үрейді қат-қабат алып жүретіні ешкімді таңғалдырмайды. ЖИ-ға байланысты тағы бір шиеленіс туындады. Бүгін BBC News америкалық кино және телевизия бизнесін тоқтатқан Голливуд актерлерінің алғашқы ереуілі туралы жазды. Соңғы рет жұлдыздар ереуілге 40 жыл бұрын шыққан екен. Aikyn.kz америкалық жұлдыздардың шыдамын жасанды интеллект қалай бұзғанын түсіндіреді.
Иллюстрация Getty Images сайтынан алынды. Авторы: Adventtr
1933 жылы актерлердің құқығын қорғау үшін құрылған Американың кино-актерлер Гильдиясы ЖИ-ды теріс пайдаланудан өзінің 120 мың мүшесін қорғайтын келісімге келе алмаған.
Қазір Актерлер одағы бұл мәселені зерттеуге дайындалып жатыр және «жасанды интеллект шығармашылық кәсіптер үшін экзистенциалды қауіп төндіретінін» ескертті. Экзистенциалды қауіп – бұл жойылуға алып келетін, болашақ өмірді бұлыңғыр ететін қауіптің түрі. Бірақ америкалық актерлердің қорқынышына сингапурлық актриса, модель және бұрынғы радио диджейі Джейми Йео алаңдамайды. Ол ЖИ арқылы жасалатын (генерацияланатын) жарнамаларды қолданатын жұлдыздардың қатарында. Мұндай топтың саны жыл өткен сайын өсіп келеді.
Фото herworld.com сайтынан алынды
Йео ханым жақында ғана Hugosave қаржылық технологиялық компаниясымен келісім жасады. Келісім бойынша актриса өзінің цифрлық бейнесін компанияның өнімдерін жарнамалау үшін пайдалануға рұқсат берген. Бұл процесс өте қарапайым. Йео жасыл экран алдында жүзі мен қимылын түсіру үшін бірнеше сағатты өткізеді, содан кейін дауысын жазуға тағы бір-екі сағатқа дыбыс жазу студиясына барады. Ал ЖИ бағдарламасы кез келген нәрсені айта алатын актрисаның цифрлық бейнесін жасау үшін кескіндерді дыбыспен синхрондайды. Ары қарай қаржы компаниясы танымал жұлдыздың цифрлық бейнесін өзінің жарнамасында еркін қолдана береді. Нәтижелері керемет!
«Мен алаңдаушылықты түсінемін, бірақ бұл технология ешқайда кетпейді. Сіз қорқып, оны қабылдамасаңыз да, қабылдайтын басқа адамдар табылады», – дейді Джейми Йео.
Дипфейк нұсқалары мына видео роликте:
Мұндай цифрлық аватарлар бұрыннан қолданылып жүр. PepsiCo компаниясымен келісімінің бір бөлігі ретінде футбол супержұлдызы Лионель Месси оған Lay's чиптерін жарнамалау үшін өзінің дипфейк нұсқасын пайдалануға рұқсат берген. Желі қолданушылары «Лионель Мессиді» қолданып жеке бейнероликтер жасайды, оны ағылшын, испан, португал және түрік тілдерінде де сөйлете алады. Дипфейк ағылшынның deep learning (терең оқыту) және fake (жалған, ұқсатып істелген) сөздерінен құралған ұғым.
Лондондағы King's College маркетинг сарапшысы, доктор Кирк Планггер: «Менің ойымша, дип терең фейк алдағы бірнеше жылда жарнама индустриясында әдеттегі тәжірибеге айналады. Бұл шығармашылық мүмкіндіктердің барлық түрлеріне жол ашады. Олар тұтынушыларға сенімді әсер етеді», – дейді.
Дипфейк нұсқалары мына видеороликте:
Процестің тиімділігі оны коммерциялық тұрғыдан да тартымды етеді. «Сіз көп жұмыс істемей, аз уақытта жақсы табыс табасыз. Бұл бюджеті шектелген компаниялар үшін де пайдалы, өйткені олар әдеттегі түсірілімге қарағанда әлдеқайда көп контент жасай алады. Сондықтан бұл барлық тараптарға тиімді», – дейді Йео ханым.
Осы тұжырыммен сингапурлық Hugosave компаниясы да келіседі. «Бұл технологияның көмегімен біз бірнеше күнде жүздеген бейнеролик жасай аламыз. Егер біз контентті дәстүрлі жолмен түсірсек, бізге жылдар мен айлар қажет болар еді», – дейді Hugosave негізін қалаушы және өнім директоры Брахам Гигелли.
Фото Getty Images сайтынан алынды. Авторы: Eric McCandless
Доктор Планггер сияқты сарапшылар бұл технологияның «көлеңкелі жағы» барын да ескертеді. «Бұл біз қайта қорапқа салатын зат емес, – дейді ол. – Жарнама индустриясы жасанды интеллекттің мүмкіндіктерімен қатар тәуекелдерді де ескеруі керек. Қазірше қоғам бір қадам кері шегініп, осы технологияны қалай дұрыс немесе этикалық тұрғыда пайдалану керектігін ойлануы қажет».
Доктор Планггердің тағы бір ескертуі – тұтынушылар шындықты жалғаннан ажырата алмайтындай «сенім дағдарысына» байланысты. Бұл интернетте мүдделі тараптар қолданып жүрген жасанды манипуляциядан өзгеше болуы мүмкін. Жалған ақпарат пен саяси хабарламалар таратудың кері әсерлерін болжау өте қиын.
Фото https://www.youtube.com/@VfxNews аккаунтынан алынды
Дипфейкті қорғаушылар үшін практикалық тәуекелдер көбірек. Қазір кез келген адамның бейнесін, жеке деректерін қорғалуын қамтамасыз ететін ЖИ-ға қатысты заңдар жоқ. Мысалы, танымал бренд өзінің өнімін жарнамалау үшін кез келген адамның бейнесін пайдаланып, оның имиджіне зиян тигізсе немесе қаскөй топтар қолданушылардың цифрлық аватарын пайдаланып заңсыз контент таратса не болады?
«Біз жасанды интеллект пен дипфейк технологиясын қолдануға байланысты белгісіз кезеңде тұрмыз», – дейді Сингапурдағы Rajah and Tann зияткерлік меншікті қорғау ұйымының заңгері. Оның ойынша, «көптеген сұрақ туындауы мүмкін: Зияткерлік меншік кімге тиесілі? Құқықтық көмек алу үшін кімге жүгінесіз? Қолданыстағы заңдар бұл проблемалардан қорғау үшін жеткілікті күшті нормативтік базаны қамтамасыз етпейді».
Бұл жарнама берушілер үшін, мысалы Голливудтың әйгілі жұлдыздарының цифрлық аватарларын қолдану құқықтарын сатып алуда үлкен кедергілер туғызуы мүмкін.