Apple täna välja kuulutatud et koos käivitamisega iOS 15 ja iPad 15 , hakkab see skannima iCloudi fotod USA-s, et otsida teadaolevat laste seksuaalset kuritarvitamist käsitlevat materjali (CSAM), plaanides anda tulemustest teada National Center for Missing and Exploited Children (NCMEC).
Enne seda, kui Apple oma plaane kirjeldas, lekkisid uudised CSAM-i algatusest ja turvauurijad on juba hakanud väljendama muret selle üle, kuidas Apple'i uut pildiskannimisprotokolli tulevikus kasutada saaks, nagu märkis Financial Times .
Apple kasutab tuntud CSAM-piltide võrdlemiseks kasutaja fotodega süsteemi NeuralHash iPhone enne nende iCloudi üleslaadimist. Vaste tuvastamisel laaditakse see foto üles koos krüptograafilise turvavautšeriga ja teatud läve korral käivitatakse ülevaatus, et kontrollida, kas inimese seadmetes on CSAM.
kuidas iphone'is fotodele pealdisi lisada
Praegu kasutab Apple oma piltide skannimise ja sobitamise tehnoloogiat laste väärkohtlemise otsimiseks, kuid teadlased muretsevad, et tulevikus võidakse seda kohandada ka muud tüüpi kujutiste otsimiseks, mis on rohkem murettekitavad, nagu näiteks valitsusvastased märgid protestid.
Säutsude seerias Johns Hopkinsi krüptograafiauurija Matthew Green ütles, et CSAM-i skannimine on 'tõesti halb mõte', sest tulevikus võib see laieneda ka täielikult krüptitud fotode skannimisele, mitte ainult iCloudi-sse üles laaditud sisule. Lastele Apple on rakendab eraldi skannimisfunktsiooni, mis otsib seksuaalselt vulgaarset sisu otse iMessagesis, mis on otsast lõpuni krüptitud.
Green väljendas muret ka Apple'i plaanitavate räside pärast, kuna potentsiaalselt võivad tekkida 'kokkupõrked', kus keegi saadab kahjutu faili, mis jagab räsi CSAM-iga ja võib põhjustada vale lipu.
Apple omalt poolt ütleb, et selle skannimistehnoloogial on „äärmiselt kõrge täpsus”, et kontosid ei märgistata valesti ning aruanded vaadatakse käsitsi üle enne, kui inimese iCloud konto on keelatud ja NCMEC-ile saadetakse aruanne.
Green usub, et Apple'i rakendamine sunnib teisi tehnoloogiaettevõtteid sarnaseid tehnikaid kasutusele võtma. 'See murrab tammi,' kirjutas ta. 'Valitsused nõuavad seda kõigilt.' Ta võrdles tehnoloogiat 'tööriistadega, mida repressiivsed režiimid on kasutusele võtnud'.
Need on halvad asjad. Ma ei taha eriti olla lasteporno poolel ega ole terrorist. Kuid probleem on selles, et krüptimine on võimas tööriist, mis tagab privaatsuse, ja te ei saa tegelikult omada tugevat privaatsust, jälgides samal ajal iga kellegi saadetud pilti. - Matthew Green (@matthew_d_green) 5. august 2021
Turvateadlane Alec Muffett, kes varem töötas Facebookis, ütles, et Apple'i otsus sellist kujutiste skannimist rakendada oli 'tohutu ja regressiivne samm üksikisiku privaatsuse poole'. 'Apple võtab privaatsuse tagasi, et võimaldada 1984. aastat,' ütles ta.
Cambridge'i ülikooli turvatehnika professor Ross Anderson ütles, et see on 'täiesti kohutav idee', mis võib viia seadmete 'hajutatud hulgivalveni'.
Nagu paljud on Twitteris märkinud, skannivad mitmed tehnoloogiaettevõtted juba CSAM-i jaoks pilte. Google, Twitter, Microsoft, Facebook ja teised kasutavad piltide räsimise meetodeid, et otsida teadaolevaid laste väärkohtlemise pilte ja neist teatada.
Ja kui soovite teada, kas Google skannib pilte laste väärkohtlemise kujutiste leidmiseks, vastasin sellele kaheksa aastat tagasi kirjutatud loos: ta on seda teinud AASTAST 2008**. Võib-olla istuge kõik maha ja pange müts tagasi. pic.twitter.com/ruJ4Z8SceY - Charles Arthur (@charlesarthur) 5. august 2021
Samuti väärib märkimist, et Apple oli juba mõne sisu skannimine laste väärkohtlemise piltide jaoks enne uue CSAM-algatuse kasutuselevõttu. 2020. aastal ütles Apple'i privaatsusametnik Jane Horvath, et Apple kasutas sõelumistehnoloogiat ebaseaduslike piltide otsimiseks ja seejärel keelab kontod, kui tuvastatakse tõendeid CSAM-i kohta.
kuidas iPhone'i Macbook Airi varundada
Apple 2019. aastal uuendas oma privaatsuspoliitikat märkida, et see skanniks üleslaaditud sisu 'potentsiaalselt ebaseadusliku sisu, sealhulgas laste seksuaalse ärakasutamise materjali' suhtes, seega pole tänased teadaanded täiesti uued.
Märkus. Selle teemaga seotud arutelu poliitilise või sotsiaalse olemuse tõttu asub arutelulõng meie veebisaidil Poliitilised uudised foorum. Kõik foorumi liikmed ja saidi külastajad on teretulnud lõime lugema ja jälgima, kuid postitamine on piiratud foorumi liikmetega, kellel on vähemalt 100 postitust.
Sildid: Apple'i privaatsus , Apple'i laste turvafunktsioonid
Lemmik Postitused