Financial Times басылымы deepfake технологиясы арзан, тартымды, шынайы және қолжетімді болғандықтан оны теріс мақсатта пайдалану оқиғаларының көбейгенін жазды. Осы материалға сілтеме жасаған Aikyn.kz америкалық биліктің зиянды контенттен қорғану тетіктерін қатайту туралы әрекеттерін түсіндіреді.
Елизавета II патшайымның фейк суреттері. Фото YouTube платформасындағы Channel 4 каналынан алынды
Ирландиялық сатирик Джонатан Свифт 1710 жылы «Өтірік ұшып барады, ал шындық оның артында ақсаңдап қуып келеді» деп жазған екен. ЖИ-генерацияланған deepfake-тер видео, аудио немесе суреттерді бұрмалау арқылы адам сенгісіз контенттер жасай бастады.
Осы аптада X әлеуметтік желісі Тэйлор Свифттің жалған суреттері тарала бастаған кезде поп-жұлдызды іздеу тетігін бұғаттауға мәжбүр болған. Көпшілік таралған суреттердің жалған екенін түсінгенге дейін мега-жұлдыздың фейк-суреттері 47 миллион рет қаралған.
Deepfake бағдарламалық жасақтамасы тартымдырақ, шынайы және кеңінен қолжетімді болған сайын, оны теріс мақсатта пайдалану фактілері де жиілеуде. Жеке деректер мен қоғамдық сенімді қорғау шаралары сақталмайтын болды.
Мемлекеттік реттеуші органдар зиянды контенттің таралуына жол бермеу үшін қазіргі қолданыстағы құқықтық қорғау тетіктері жеткіліксіз екенін мойындауда. Әлеуметтік желілер қабылдаған зиянды жазбаларды жою ережелері мен нұсқаулықтары да бұл проблеманы толық шеше алмауда.
Фото afftimes.com сайтынан алынды
Дипфейктер шынайы және жалған ақпараттың шекарасын жойып, желідегі барлық ақпаратқа сенімсіздік тудырады. Бұл мәселеде сарапшылардың пікірлері ұқсас: заң шығарушылар, әлеуметтік медиа платформалары және осы құралдарды жасайтын технологиялық компаниялар дипфейктердің алдын алу, анықтау және әрекет ету үшін күш-жігерін жұмылдырулары қажет.
Зерттеулер көрсеткендей, желідегі дипфейктер көбінесе бопсалау және жеке ар-намысқа нұқсан келтіру үшін пайдаланылады. Соңғы оқиғалар көрсеткендей, дипфейктер әлемдегі демократияға да үлкен қауіп төндіре бастаған. Жалған ақпарат тарату, қоғамдық пікірді бұрмалау (манипуляциялау) мен саясаткерлердің атынан жалған мәлімдемелер тарату үшін жиі қолданыла бастаған.
Midjourney нейрондық желісінің көмегімен жасалған Рим папасы Францисктің фейк суреттері. Фото X (Twitter) әлеуметтік желілісінен алынды
Қаңтар айында АҚШ президенті Джо Байденнің жалған аудиожазбасын пайдаланған роботтық қоңырау демократтарды Нью-Гэмпширдегі праймериз алдында дауыс беруге қатыспай, үйлерінде болуға шақырған.
Осыдан кейін америкалық билік, соның ішінде Федералды Байланыс комиссиясы роботтық қоңырауларда дауысты клондау технологиясын пайдалануды түбегейлі заңсыз етуді ұсынды. Дегенмен ЖИ-дің көмегімен жасалған зиянды контентті реттеу оңай емес; зұлымдықты анықтау қиын болуы мүмкін.
Agenda Media Group продюсерлік компаниясының дипфейк технологиясын қолданып түсірген сериалынан көрініс. Фото sostav.ru сайтынан алынды
Жауапкершілік зиянды дипфейктердің таралуына қарсы тұруға тиіс. Ұлыбританияның Интернет қауіпсіздігі туралы заңы ашық видеолар мен суреттері бар дипфейктерді келісімсіз таратуға тыйым салады. Басқа елдер осыдан үлгі алуы керек.
Қоғамды ақпараттандыру науқандары мен медиа сауаттылықты арттыру да пайдаланушыларға шынайы мен жалған контентті анықтауға көмектеседі.
Қауіпсіздік шаралары күшейтілген сайын зиянды технологиялар оларды айналып өту жолдарын іздейді. Сондықтан саясаткерлер мен компаниялар қауіпсіздікті ұдайы күшейту стратегиясын іске асырып, тез әрекет етуге үйренуі қажет.