Բացատրեց. Ինչու՞ է դառնում ավելի դժվար է հայտնաբերել խորը կեղծ տեսանյութերը, և որո՞նք են դրա հետևանքները:
Դիփֆեյքերի պոտենցիալ վտանգը կայանում է նրանում, որ մանիպուլյացիայի մակարդակն այնքան կատարյալ է, որ երբեմն անհնար է թվում դրանք տարբերել իրական տեսանյութերից: Եվ որքան ավելի դժվար է դառնում կեղծիքի հայտնաբերումը, այնքան մեծ է այն սպառնալիքը, որ այն ունի իրական դառնալու և այն ավերածությունների պատճառ դառնալու, որը նա մտադիր է:

Դոկտորացված տեսահոլովակները կամ խորը ֆեյքերը արդեն երկար ժամանակ եղել են հիմնական զենքերից մեկը, որն օգտագործվում է քարոզչական մարտերում: Դոնալդ Թրամփը ծաղրում է Բելգիային՝ Փարիզի կլիմայի համաձայնագրում մնալու համար, Դեյվիդ Բեքհեմը, ով սահուն խոսում է ինը լեզուներով, Մաո Ցզեդունը երգում է «Ես կպրծնեմ» կամ Ջեֆ Բեզոսն ու Իլոն Մասկը Star Trek-ի փորձնական դրվագում… այս բոլոր տեսանյութերը վիրուսային են դարձել՝ չնայած լինելուն կեղծ, կամ այն պատճառով, որ դրանք խորը ֆեյքեր էին:
Այս անհանգստացնող իրատեսական խորը ֆեյքը Ջեֆ Բեզոսին և Իլոն Մասկին դնում է «Աստղային ճանապարհ» դրվագում https://t.co/5KxmHpo1WM pic.twitter.com/CpWe91Qil0
— The Verge (@verge) 23 փետրվարի, 2020 թ
Անցյալ տարի Ֆլորիդայից հանրապետական սենատոր Մարկո Ռուբիոն ասաց, որ խորը կեղծիքները նույնքան հզոր են, որքան միջուկային զենքերը ժողովրդավարական երկրներում պատերազմներ մղելու համար: Հին ժամանակներում, եթե ուզում էիր սպառնալ ԱՄՆ-ին, քեզ պետք էր 10 ավիակիր, միջուկային զենք և հեռահար հրթիռներ։ Այսօր ձեզ պարզապես անհրաժեշտ է մուտք գործել դեպի մեր ինտերնետ համակարգ, մեր բանկային համակարգ, մեր էլեկտրական ցանցեր և ենթակառուցվածքներ, և գնալով ավելի շատ ձեզ անհրաժեշտ է շատ իրատեսական կեղծ տեսահոլովակ պատրաստելու ունակություն, որը կարող է խաթարել մեր ընտրությունները, որը կարող է շպրտել մեր երկիրը: ներքին ահռելի ճգնաժամի մեջ և խորապես թուլացնում մեզ, Forbes մեջբերել է նրա խոսքերը.
Դիփֆեյքերի պոտենցիալ վտանգը կայանում է նրանում, որ մանիպուլյացիայի մակարդակն այնքան կատարյալ է, որ երբեմն անհնար է թվում դրանք տարբերել իրական տեսանյութերից: Եվ որքան ավելի դժվար է դառնում կեղծիքի հայտնաբերումը, այնքան մեծ է այն սպառնալիքը, որ այն ունի իրական դառնալու և այն ավերածությունների պատճառ դառնալու, որը նա մտադիր է: Սակայն արհեստական ինտելեկտի միջոցով ստեղծված ավելի բարդ գործիքների շնորհիվ, որոնք այժմ հասանելի են այս տեսանյութերը արտադրելու համար, դժվա՞ր է դառնում խորը կեղծիքները հայտնաբերելը:
Ի՞նչ են խորը ֆեյքերը և ինչպես են դրանք ստեղծվում:
Deepfakes-ը կեղծ բովանդակություն է՝ հաճախ տեսանյութերի տեսքով, բայց նաև այլ մեդիա ձևաչափերով, ինչպիսիք են նկարները կամ աուդիոները, որոնք ստեղծվել են արհեստական ինտելեկտի հզոր գործիքների միջոցով: Դրանք կոչվում են խորը կեղծիքներ, քանի որ դրանք օգտագործում են խորը ուսուցման տեխնոլոգիա՝ մեքենայական ուսուցման մի ճյուղ, որը կիրառում է նեյրոնային ցանցի մոդելավորումը զանգվածային տվյալների հավաքածուների համար՝ կեղծ բովանդակություն ստեղծելու համար:
Այն օգտագործում է արհեստական ինտելեկտի մի ճյուղ, որտեղ, եթե համակարգչին բավականաչափ տվյալներ են սնուցում, այն կարող է ստեղծել կեղծիքներ, որոնք իրենց շատ նման են իրական մարդուն: Օրինակ, AI-ն կարող է իմանալ, թե ինչ տեսք ունի աղբյուրի դեմքը, այնուհետև այն տեղափոխել մեկ այլ թիրախի վրա՝ դեմքի փոխանակում կատարելու համար:
Generative Adversarial Networks (GAN) կոչվող տեխնոլոգիայի կիրառումը, որն օգտագործում է արհեստական ինտելեկտի երկու ալգորիթմ, որտեղ մեկը ստեղծում է կեղծ բովանդակություն, իսկ մյուսը գնահատում է իր ջանքերը՝ սովորեցնելով համակարգը ավելի լավը լինել, օգնել է ավելի ճշգրիտ խորը կեղծիքներ ստեղծել:
GAN-ը կարող է նաև ստեղծել կեղծ մարդկանց համակարգչային պատկերներ, որոնք օգտագործվել են «Այս անձը գոյություն չունի» կոչվող կայքի կողմից: Սա գործնականում անհնարին է դարձնում պարզել՝ արդյոք այն տեսանյութերը կամ պատկերները, որոնք մենք տեսնում ենք համացանցում, իրական են, թե կեղծ:
Deepfakes-ը իսկապես դժվար է հայտնաբերել: Օրինակ, շատերը սիրահարվել էին Tiktok-ի տեսանյութերին, որտեղ Թոմ Քրուզը գոլֆ է խաղում, որոնք հետագայում պարզվեց, որ դրանք խորը կեղծիքներ են:
Արդյո՞ք ավելի դժվա՞ր է դառնում դիփֆեյքերը հայտնաբերելը:
Համակարգչային Vision 2021-ի կիրառման ձմեռային կոնֆերանսում ներկայացված հոդվածը նկարագրում է նոր տեխնիկա, որն ավելի անխոհեմ է դարձնում խորը կեղծիքները՝ դժվարացնելով դրանք հայտնաբերելը ավանդական գործիքների համար:
Կալիֆորնիայի Սան Դիեգոյի համալսարանի ասպիրանտներ Փաարտ Նեքհարայի և Շեհզին Սամարա Հուսեյնի ղեկավարությամբ անցկացված ուսումնասիրությունը պարզել է, որ հայտնաբերման գործիքները կարող են խաբվել՝ յուրաքանչյուր տեսանյութի կադրում մի փոքր մանիպուլյացիայի ենթարկված մուտքագրումներ, որոնք կոչվում են հակառակորդների օրինակներ:

Deepfake-ի հայտնաբերման ժամանակակից ժամանակակից մեթոդները կարելի է հեշտությամբ շրջանցել, եթե հակառակորդը տիրապետում է դետեկտորի ամբողջական կամ նույնիսկ մասնակի իմացությանը, ասվում է «Adversarial Deepfakes.
Խոսելով indianexpress.com-ի հետ՝ Նիհարան և Հուսեյնն ասացին, որ հայտնաբերման ստանդարտ մեթոդները կարող են հեռու լինել անխոհեմ լինելուց, քանի որ դրանք երաշխավորված չեն հայտնաբերելու ավելի վերջերս խորը կեղծ տեսանյութեր, որոնք սինթեզված են նոր տեխնիկայի միջոցով, որոնք չկան տվյալների բազայում, և դրանք խոցելի են հակառակորդի մուտքերի համար:
ՄԻԱՑԻՐ ՀԻՄԱ :Express Explained Telegram-ի ալիքըՀակառակորդ մուտքերը փոքր-ինչ փոփոխված մուտքեր են, որպեսզի խորը նյարդային ցանցերը սխալ թույլ տան: Ցույց է տրվել, որ խորը նյարդային ցանցերը խոցելի են այնպիսի մուտքերի համար, որոնք կարող են հանգեցնել դասակարգչի ելքի փոփոխության: Մեր աշխատանքում մենք ցույց ենք տալիս, որ հարձակվողը կարող է մի փոքր փոփոխել խորը կեղծ տեսանյութի յուրաքանչյուր կադր այնպես, որ այն կարողանա շրջանցել խորը կեղծ դետեկտորը և դասակարգվել որպես իրական, ասացին նրանք:

Նրանք ավելացրել են, որ հարձակվողը կարող է ստեղծել մի փոքր աննկատ հակառակորդային անհանգստություն խորը կեղծ տեսանյութի յուրաքանչյուր կադրի համար, ավելացնել այն կադրի վրա և այնուհետև միավորել բոլոր տեսանյութերի կադրերը միասին՝ ստեղծելու հակառակորդ տեսանյութ: Այս տեխնիկայի օգտագործմամբ մեր փորձերում մենք կարողացանք հասնել հաջողության (դետեկտորին խաբելու) ավելի քան 90%:
Ի՞նչ վտանգներ են ներկայացնում խորը կեղծ տեսանյութերը:
Դիփֆեյք տեսանյութերի տարածման հետ մեկտեղ աճում է մտավախությունը, որ դրանք կօգտագործվեն քաղաքական արշավներ վարելու համար և կարող են օգտագործվել ավտորիտար ռեժիմների կողմից:
2019 թվականին «Future Advocacy» և UK Artist Bill Posters անունով հետազոտական կազմակերպությունը ստեղծեց տեսանյութ, որտեղ Մեծ Բրիտանիայի վարչապետ Բորիս Ջոնսոնը և Լեյբորիստական կուսակցության առաջնորդ Ջերեմի Քորբինը աջակցում են միմյանց վարչապետի պաշտոնի համար: Խումբն ասում է, որ տեսահոլովակը ստեղծվել է, որպեսզի ցույց տա «Դիփֆեյքերի» ներուժը՝ խաթարելու ժողովրդավարությունը:
Նաև անցյալ տարի, Դելիի ասամբլեայի ընտրություններից առաջ, տեսանյութեր տարածվեցին, որտեղ Դելիի BJP նախագահ Մանոջ Թիվարին խոսում էր անգլերեն և Հարյանվի լեզուներով: Այս տեսանյութերում երևում էր, որ Թիվարին քննադատում է Արվինդ Քեջրիվալին և մարդկանց խնդրում քվեարկել BJP-ի օգտին: Տեսանյութերը, որոնք տարածվել են WhatsApp-ի ավելի քան 5000 խմբերում, ավելի ուշ պարզվել է, որ կեղծ են, հաղորդում է թվային մեդիա Vice ընկերությունը:
Deepfakes-ը նաև անհանգստության տեղիք է տալիս այն ժամանակ, երբ ԱՀԿ-ն հայտարարել է, որ Covid-19 ճգնաժամը առաջացրել է ինֆոդեմիա և եղել են սխալ տեղեկատվություն տարածելու միտումնավոր փորձեր՝ խաթարելու հանրային առողջության արձագանքը և առաջ մղելու խմբերի կամ անհատների այլընտրանքային օրակարգերը:
Ավելին, հոյակապ տեսանյութերը, որոնք ներառում են բովանդակության մանիպուլյացիա՝ սխալ ամսաթվի կամ գտնվելու վայրի օգտագործմամբ, կոնտեքստը փոխելու համար բովանդակության կտրում, բացթողում, միացում և կեղծիք, այսօր ավելի ու ավելի են օգտագործվում սոցիալական մեդիայում՝ միտումնավոր փաստերը քաղաքական նպատակներով խեղաթյուրելու համար: Այս տեսանյութերից շատերը խորը ֆեյքերի օրինակներ չեն, բայց ցույց են տալիս, թե որքան հեշտ կարող է լինել փաստերը շղարշելը և կեղծիքների տարածումը, որը հիմնված է մանիպուլյացիայի ենթարկված բովանդակության վրա, որը քողարկվում է որպես կոշտ ապացույց:
Wombo AI-ն վայրի է pic.twitter.com/YIaFcRreGG
- Jack Posobiec (@JackPosobiec) 10 մարտի, 2021 թ
Դիփֆեյք տեսանյութերի հետ կապված մյուս մեծ մտահոգությունը անհամաձայն պոռնոգրաֆիկ բովանդակության ստեղծումն է: 2017-ին օգտատերերից մեկը գործի դրեց դեմքերի փոխանակման ալգորիթմ՝ ստեղծելու խորը կեղծ պոռնոգրաֆիկ տեսանյութեր այնպիսի հայտնի մարդկանցից, ինչպիսիք են Սքարլեթ Յոհանսոնը, Գալ Գադոտը, Քրիստեն Բելը և Միշել Օբաման, և դրանք տարածեց Reddit-ի սպառնալիքով, որը կոչվում է r/deepfake: Հաջորդ տարվա փետրվարին հաշիվն ուներ մոտ 90,000 բաժանորդ:
Ինտերնետում առկա հազարավոր խորը կեղծ տեսանյութերից ավելի քան 90%-ը անհամաձայն պոռնոգրաֆիա է: Անցյալ տարի արհեստական ինտելեկտի ամենասարսափելի փորձերից մեկը DeepNude կոչվող հավելվածն էր, որը մերկացնում էր կանանց լուսանկարները. այն կարող էր լուսանկարել, այնուհետև փոխել կանացի հագուստը խիստ իրատեսական մերկ մարմինների հետ: Հավելվածն անջատվել է ուժեղ արձագանքից հետո:
Նաև, ինչպես լայնորեն հաղորդվում է, խորը կեղծ տեսանյութերն ավելի ու ավելի են օգտագործվում՝ վրեժխնդիր պոռնոգրաֆիա ստեղծելու համար՝ մերժված սիրահարների կողմից՝ կանանց ոտնձգությունների համար:
Deepfake-ի տեսանյութերից բխող սպառնալիքն արդեն ակնհայտ է, indianexpress.com-ին ասացին Նիհարան և Հուսեյնը: Կան չարամիտ օգտատերեր, որոնք օգտագործում են նման տեսանյութեր՝ արատավորելու հայտնի անձանց, ապատեղեկատվություն տարածելու, ընտրությունների վրա ազդելու և մարդկանց բևեռացնելու համար։ Ավելի համոզիչ և հասանելի խորը կեղծ վիդեո սինթեզի տեխնիկայի շնորհիվ այս սպառնալիքն ավելի մեծ է դարձել, ավելացրել են նրանք:
Արդյո՞ք սպասվում է ճնշում:
Սոցիալական մեդիա ընկերությունների մեծ մասը, ինչպիսիք են Facebook-ը և Twitter-ը, արգելել են խորը կեղծ տեսանյութերը: Նրանք ասել են, որ հենց որ որևէ տեսանյութ հայտնաբերեն որպես խորը ֆեյք, այն կհեռացվի։
Facebook-ը հավաքագրել է Բերկլիի, Օքսֆորդի և այլ հաստատությունների հետազոտողների՝ խորը կեղծ դետեկտոր ստեղծելու համար: 2019 թվականին այն անցկացրեց Deepfake Detection Challenge՝ համագործակցելով ոլորտի առաջատարների և ակադեմիական փորձագետների հետ, որի ընթացքում ստեղծվեց և տարածվեց ավելի քան 100,000 տեսանյութերից բաղկացած եզակի տվյալների բազա:
Այնուամենայնիվ, ոչ բոլոր խորը կեղծիքներն են հնարավոր ճշգրիտ հայտնաբերել, և կարող է նաև զգալի ժամանակ պահանջել դրանց հայտնաբերման և հեռացման համար: Ավելին, շատ պոռնկագրական կայքեր չեն իրականացնում նույն մակարդակի սահմանափակումները։
Նեյխարան և Հուսեյնն ասել են, որ խորը կեղծ տեսանյութերը ավելի ճշգրիտ հայտնաբերելու համար մեզ անհրաժեշտ են հակառակորդի կողմից ուժեղ մոդելներ՝ ներառելով հարձակվողին՝ վարժեցնելով նման խորը կեղծ հայտնաբերման մոդելներ: Երկարաժամկետ լուծումը ջրային գծանշումն է կամ թվային ստորագրումը պատկերների և տեսանյութերի կողմից նկարահանված սարքից: Ջրի նշագիծը կամ թվային ստորագրությունը պետք է խաթարվի, եթե կիրառվեն «deepfake» մեթոդները, ինչպիսիք են դեմքի փոխանակումը: Deepfake դետեկտորն այնուհետև կարող է պարզապես ստուգել ստորագրությունը կամ ջրի մակարդակի նշագիծը: Այնուամենայնիվ, սա կպահանջի բոլոր տեսախցիկների և բջջային հեռախոսների վրա ջրանիշի ստանդարտ սահմանել: Հետևաբար, կարող է որոշ ժամանակ պահանջվել, մինչև դա իրականություն դառնա։
Կիսվեք Ձեր Ընկերների Հետ: