Ինչպես է Apple-ը սկանավորում սարքերում երեխաների շահագործման պատկերները և ինչու է այն մեծացնում հոնքերը
Ակնկալվում է, որ սկզբում կգործարկվի Միացյալ Նահանգներում, առանձնահատկությունները ներառում են նոր տեխնոլոգիայի օգտագործումը CSAM-ի տարածումը առցանց սահմանափակելու համար, հատկապես Apple հարթակի միջոցով:

Այդ մասին հայտարարել է Apple-ը Այս տարվա վերջին ծրագրային ապահովման թարմացումները նոր հնարավորություններ կբերեն որը կօգնի երեխաներին պաշտպանել գիշատիչներից, ովքեր հաղորդակցման գործիքներ են օգտագործում նրանց հավաքագրելու և շահագործելու համար, ինչպես նաև սահմանափակելու երեխաների սեռական բռնության նյութերի (CSAM) տարածումը:
Ակնկալվում է, որ սկզբում կգործարկվի Միացյալ Նահանգներում, առանձնահատկությունները ներառում են նոր տեխնոլոգիայի օգտագործումը CSAM-ի տարածումը առցանց սահմանափակելու համար, հատկապես Apple հարթակի միջոցով:
Այնուհետև երեխաների համար սարքի վրա կլինի պաշտպանություն զգայուն բովանդակություն ուղարկելուց կամ ստանալուց՝ ծնողներին զգուշացնելու մեխանիզմներով, եթե օգտատերը 13 տարեկանից ցածր է: Apple-ը նաև կմիջամտի, երբ Siri-ն կամ Search-ը օգտագործվեն CSAM-ի հետ կապված թեմաներ փնտրելու համար: .
Ի՞նչ տեխնոլոգիա է անում Apple-ը առցանց CSAM-ի տարածումը կանխելու համար:
Բլոգի գրառման մեջ Apple-ը բացատրել է, որ կօգտագործի ծածկագրման հավելվածներ iOS-ի և iPadOS-ի միջոցով՝ iCloud Photo-ում պահվող հայտնի CSAM պատկերներին համապատասխանելու համար: Տեխնոլոգիան կհամապատասխանի օգտատիրոջ iCloud-ի պատկերները երեխաների անվտանգության կազմակերպությունների կողմից տրամադրված հայտնի պատկերների հետ: Եվ դա արվում է առանց իրականում պատկերը տեսնելու և միայն մատնահետքի համընկնման բան փնտրելով: Եթե շեմը հատող համընկնում լինի, Apple-ը կհայտնի այս դեպքերի մասին Անհայտ կորած և շահագործման ենթարկված երեխաների ազգային կենտրոնին (NCMEC):
Apple-ը պարզաբանել է, որ իր տեխնոլոգիան նկատի է ունենում օգտատերերի գաղտնիությունը, և հետևաբար տվյալների բազան վերածվում է անընթեռնելի հեշերի, որոնք ապահով կերպով պահվում են օգտատերերի սարքերում: Այն ավելացրել է, որ նախքան iCloud-ում որևէ պատկեր վերբեռնելը, օպերացիոն համակարգը այն կհամապատասխանի հայտնի CSAM հեշերին՝ օգտագործելով գաղտնագրման տեխնոլոգիա, որը կոչվում է մասնավոր հավաքածուների խաչմերուկ: Այս տեխնոլոգիան նաև կորոշի համընկնումը՝ առանց արդյունքը բացահայտելու:
Այս պահին սարքը ստեղծում է գաղտնագրման անվտանգության վաուչեր համընկնման արդյունքով և լրացուցիչ գաղտնագրված տվյալներով և պահում այն iClouds-ում՝ պատկերի հետ միասին: Գաղտնի փոխանակման շեմերի տեխնոլոգիան ապահովում է, որ այս վաուչերը չեն կարող մեկնաբանվել Apple-ի կողմից, քանի դեռ iCloud Photos հաշիվը չի հատում հայտնի CSAM բովանդակության շեմը: Այս շեմը, ինչպես պնդում էր բլոգը, ստեղծվել է չափազանց բարձր ճշգրտության մակարդակ ապահովելու համար և ապահովում է տարեկան մեկ տրիլիոնից պակաս հնարավորություն՝ տվյալ հաշիվը սխալ դրոշակելու համար: Այսպիսով, մեկ պատկեր հազիվ թե ազդանշան առաջացնի:
Բայց եթե շեմը գերազանցվի, Apple-ը կարող է մեկնաբանել անվտանգության վաուչերների բովանդակությունը և ձեռքով վերանայել յուրաքանչյուր զեկույց համապատասխանության համար, անջատել օգտատիրոջ հաշիվը և հաշվետվություն ուղարկել NCMEC: Apple-ն ասել է, որ օգտատերերը կկարողանան բողոքարկել, եթե կարծում են, որ սխալ են դրոշակվել:
Ինչպե՞ս են աշխատում մյուս հատկանիշները:
Apple-ի նոր հաղորդակցման անվտանգությունը Messages-ի համար կփշրի զգայուն պատկերը և կզգուշացնի երեխային բովանդակության բնույթի մասին: Եթե միացված է հետին պլանից, երեխային կարող են նաև ասել, որ իրենց ծնողներին զգուշացրել են իրենց դիտած հաղորդագրության մասին: Նույնը կկիրառվի, եթե երեխան որոշի զգայուն հաղորդագրություն ուղարկել: Apple-ն ասել է, որ Messages-ը կօգտագործի սարքի վրա տեղադրված մեքենայական ուսուցումը` նկարների կցորդները վերլուծելու և որոշելու, թե արդյոք լուսանկարը սեռական բնույթի է, և որ Apple-ին հասանելի չեն լինի հաղորդագրությունները: Հատկանիշը կգա որպես թարմացում iCloud-ում ստեղծված որպես ընտանիքներ օպերացիոն համակարգի վերջին տարբերակների համար ստեղծված հաշիվների վրա:
Բացի այդ, թարմացումով, երբ օգտատերը փորձում է փնտրել CSAM-ի հնարավոր թեմաները, Siri-ն և Search-ը կբացատրեն, թե ինչու դա կարող է վնասակար և խնդրահարույց լինել: Օգտատերերը նաև ուղեցույց կստանան, թե ինչպես պետք է հաշվետվություն ներկայացնել երեխաների շահագործման վերաբերյալ, եթե նրանք դա խնդրեն:
| Բացատրություն. Ինչպե՞ս և ինչու Google-ը կառաջարկի ավելի շատ պաշտպանություն երեխաներին առցանց
Ինչու՞ է Apple-ը դա անում և ի՞նչ մտահոգություններ են առաջանում:
Խոշոր տեխնոլոգիական ընկերությունները տարիներ շարունակ ճնշումների են ենթարկվել երեխաների շահագործման համար իրենց պլատֆորմի օգտագործումը ճնշելու համար: Տարիների ընթացքում շատ զեկույցներ ընդգծում են, թե որքան բավարար չի արվել տեխնոլոգիան դադարեցնելու CSAM բովանդակությունն ավելի լայնորեն հասանելի դարձնելու համար:
Այնուամենայնիվ, Apple-ի հայտարարությունն արժանացել է քննադատությունների, որոնցում շատերն ընդգծել են, թե ինչպես է սա հենց այն տեսակի հսկողության տեխնոլոգիան է, որը շատ կառավարություններ կցանկանային ունենալ և սիրում են չարաշահել: Այն փաստը, որ սա եկել է Apple-ից, որը երկար ժամանակ եղել է գաղտնիության երաշխավորը, զարմացրել է շատերին:
Նաև, գաղտնագրության փորձագետները, ինչպիսիք են Ջոնս Հոփկինսի համալսարանից Մեթյու Գրինը, մտավախություն են հայտնել, որ համակարգը կարող է օգտագործվել անմեղ մարդկանց շրջանակելու համար՝ ուղարկելով նրանց պատկերներ, որոնք նախատեսված են CSAM-ի համընկնումներ գործարկելու համար: Հետազոտողները կարողացել են դա անել բավականին հեշտությամբ, ասաց նա NPR-ին՝ հավելելով, որ հնարավոր է խաբել նման ալգորիթմներին:
Սակայն The New York Times-ը մեջբերել է Apple-ի գաղտնիության հարցերով գլխավոր տնօրեն Էրիկ Նոյենշվանդերին ասել է, որ այս հատկանիշները սովորական օգտատերերի համար այլ բան չեն նշանակի:
Եթե դուք պահում եք CSAM նյութերի հավաքածու, այո, դա վատ է ձեզ համար, ասաց նա հրապարակմանը:
Տեղեկագիր| Սեղմեք՝ օրվա լավագույն բացատրությունները ձեր մուտքի արկղում ստանալու համար
Արդյո՞ք այլ խոշոր տեխնոլոգիական ընկերություններ ունեն նմանատիպ տեխնոլոգիաներ:
Այո՛։ Փաստորեն, Apple-ը համեմատաբար ուշ է մուտք գործում, քանի որ Microsoft-ը, Google-ը և Facebook-ը ահազանգում են իրավապահ մարմիններին CSAM պատկերների մասին: Apple-ը հետ է մնում, քանի որ ցանկացած նման տեխնոլոգիա կհակասի օգտատերերի գաղտնիության նկատմամբ իր շատ գովազդված պարտավորություններին: Արդյունքում, 2020 թվականին, երբ Facebook-ը NCMEC-ին հայտնեց CSAM-ի 20,3 միլիոն խախտումների մասին, Apple-ը կարող էր հայտնել ընդամենը 265 դեպք, հաղորդում է The New York Times-ը։
Միայն հիմա է, որ այն կարողացել է գտնել տեխնոլոգիական կետը՝ դա անելու համար՝ առանց սովորական օգտատերերի վրա ազդելու կամ գոնե նրանց վախեցնելու: Սակայն, ինչպես ցույց տվեց նախնական արձագանքը, դա դեռ լարախաղաց է:
Կիսվեք Ձեր Ընկերների Հետ: