Apple News

Ülikooli teadlased, kes ehitasid CSAM-i skaneerimissüsteemi, kutsuvad Apple'i üles mitte kasutama ohtlikku tehnoloogiat

Reede, 20. august 2021 6:48 PDT, autor Sami Fathi

Lugupeetud ülikoolide teadlased löövad häirekella Apple'i skannimiskavade taga oleva tehnoloogia üle iPhone kasutajate fotokogud CSAM-i või laste seksuaalse kuritarvitamise materjali jaoks, nimetades tehnoloogiat 'ohtlikuks'.





õuna privaatsus
Princetoni ülikooli arvutiteaduse ja avalike suhete dotsent Jonanath Mayer, samuti Princetoni ülikooli infotehnoloogiapoliitika keskuse teadur Anunay Kulshrestha, mõlemad kirjutas op-ed jaoks Washington Post , kirjeldades oma kogemusi pildituvastustehnoloogia ehitamisel.

Teadlased alustasid kaks aastat tagasi projekti, et tuvastada CSAM krüpteeritud võrguteenustes. Teadlased märgivad, et nende valdkonda arvestades teavad nad täieliku krüptimise väärtust, mis kaitseb andmeid kolmandate osapoolte juurdepääsu eest. See mure on nende sõnul see, mis neid hirmutab CSAMi 'krüpteeritud platvormidel vohamise' pärast.



need, mis spotifyst pääsesid

Mayer ja Kulshrestha ütlesid, et soovivad leida olukorrale kesktee: luua süsteem, mida veebiplatvormid saaksid kasutada CSAM-i leidmiseks ja täieliku krüptimise kaitsmiseks. Teadlased märgivad, et valdkonna eksperdid kahtlesid sellise süsteemi väljavaadetes, kuid neil õnnestus see ehitada ja selle käigus märkasid olulist probleemi.

Püüdsime uurida võimalikku keskteed, kus võrguteenused saaksid tuvastada kahjuliku sisu, säilitades samal ajal täieliku krüptimise. Idee oli arusaadav: kui keegi jagab materjali, mis vastab teadaoleva kahjuliku sisu andmebaasile, teavitatakse teenust. Kui inimene jagaks süütut sisu, ei õpiks teenus midagi. Inimesed ei saanud andmebaasi lugeda ega teada, kas sisu kattub, kuna see teave võib paljastada õiguskaitsemeetodid ja aidata kurjategijatel avastamisest kõrvale hiilida.

Teadlikud vaatlejad väitsid, et meiesugune süsteem pole kaugeltki teostatav. Pärast paljusid valekäivitusi ehitasime töötava prototüübi. Kuid puutusime kokku silmatorkava probleemiga.

Alates Apple'i väljakuulutamisest selle funktsiooni kohta on ettevõtet pommitatud muredega et CSAM-i tuvastamise taga olevat süsteemi saaks kasutada teiste fotode tuvastamiseks rõhuvate valitsuste nõudmisel. Apple on sellise võimaluse tugevalt tagasi lükanud, öeldes, et keeldub kõigist valitsuste sellistest taotlustest.

Sellegipoolest on mure CSAM-i tuvastamiseks kasutatava tehnoloogia tulevase mõju pärast laialt levinud. Mayer ja Kulshrestha ütlesid, et mure selle pärast, kuidas valitsused saavad süsteemi kasutada muu sisu tuvastamiseks peale CSAM-i, on neid häirinud.

Apple Airpods gen 1 vs gen 2

Välisriigi valitsus võib näiteks sundida teenuseid ebasoodsat poliitilist kõnet jagavate inimeste väljasaatmiseks. See pole hüpoteetiline: populaarne Hiina sõnumsiderakendus WeChat kasutab juba sisu sobitamist dissidentliku materjali tuvastamiseks. India kehtestas sel aastal eeskirjad, mis võivad nõuda valitsuse poliitika suhtes kriitilise sisu eelsõelumist. Venemaa trahvis hiljuti Google'it, Facebooki ja Twitterit demokraatiat toetavate protestimaterjalide eemaldamata jätmise eest.

Märkasime muid puudujääke. Sisu sobitamise protsessil võivad olla valepositiivsed tulemused ja pahatahtlikud kasutajad võivad süsteemi mängu panna, et süütuid kasutajaid kontrollida.

Olime nii häiritud, et astusime sammu, mida me polnud arvutiteaduse kirjanduses varem näinud: hoiatasime oma süsteemikujunduse eest, kutsudes üles tegema täiendavaid uuringuid tõsiste varjukülgede leevendamiseks....

Apple on jätkanud kasutajate murede käsitlemist oma plaanide pärast, lisadokumentide avaldamine ja KKK leht . Apple usub jätkuvalt, et tema CSAM-i tuvastamise süsteem, mis toimub kasutaja seadmes, ühtib selle pikaajaliste privaatsusväärtustega.

Sildid: Apple'i privaatsus , WashingtonPost.com , Apple'i laste turvafunktsioonid