Apple News

Apple'i töötajad tõstatavad sisemiselt muret CSAM-i tuvastamise plaanide pärast

Reede, 13. august 2021 kell 00:43 PDT, autor Sami Fathi

Apple'i töötajad ühinevad nüüd nende isikute kooriga, kes tekitavad muret Apple'i skannimiskavade pärast iPhone kasutajate fotokogud CSAM-i või laste seksuaalse kuritarvitamise materjali jaoks, mis väidetavalt räägivad sisemiselt selle kohta, kuidas seda tehnoloogiat saaks kasutada kasutajate fotode skannimiseks muud tüüpi sisu jaoks, selgub ettevõtte aruandest. Reuters .





Apple Parki droon juuni 2018 2
Vastavalt Reuters , on määramata arv Apple'i töötajaid pöördunud Slacki sisekanalitesse, et tõstatada muret CSAM-i tuvastamise pärast. Täpsemalt tunnevad töötajad muret selle pärast, et valitsused võivad sundida Apple'i kasutama seda tehnoloogiat tsenseerimiseks, leides peale CSAM-i muu sisu. Mõned töötajad on mures, et Apple kahjustab oma valdkonna juhtivat privaatsusmainet.

Apple'i töötajad on üle ujutanud Apple'i sisemise Slacki kanali enam kui 800 sõnumiga nädal tagasi välja kuulutatud plaani kohta, ütlesid Reutersile end mitte tuvastada palunud töötajad. Paljud väljendasid muret, et seda funktsiooni võivad ära kasutada repressiivsed valitsused, kes otsivad tsensuuri või vahistamise jaoks muud materjali, ütlesid päevad kestnud lõime näinud töötajad.



Apple'i varasemad turvamuudatused on tekitanud ka töötajate muret, kuid uue arutelu maht ja kestus on üllatavad, ütlesid töötajad. Mõned plakatid olid mures, et Apple kahjustab oma privaatsuse kaitsmise juhtivat mainet.

Arvatakse, et Apple'i töötajad, kes täidavad kasutajate turvalisusega seotud rolle, ei osalenud sisemises protestis.

Sellest ajast peale teadaanne eelmisel nädalal , Apple on pälvinud kriitikat oma CSAM-i tuvastamise plaanide üle, mis peaksid siiski sel sügisel iOS 15 ja iPadOS 15 puhul kasutusele võtma. Peamiselt keerlevad mured selle üle, kuidas see tehnoloogia võib rõhuvate valitsuste ja režiimide tulevaste rakenduste jaoks libeda tee.

kuidas taaskäivitada iPhone se 2020

Apple on kindlalt tagasi lükanud idee, et CSAM-materjali tuvastamiseks kasutatavat seadmes olevat tehnoloogiat saaks kasutada mis tahes muul eesmärgil. Sees avaldatud KKK dokument , ütleb ettevõte, et keeldub tungivalt valitsuste sellisest nõudmisest.

Kas valitsused saaksid sundida Apple'i lisama räsiloendisse mitte-CSAM-pilte?
Apple keeldub sellistest nõudmistest. Apple'i CSAM-i tuvastamise võime on loodud ainult iCloud Photos'i salvestatud teadaolevate CSAM-piltide tuvastamiseks, mille on tuvastanud NCMEC-i ja teiste lastekaitserühmade eksperdid. Oleme varemgi seisnud silmitsi nõudmistega luua ja juurutada valitsuse volitatud muudatusi, mis halvendavad kasutajate privaatsust, ning oleme nendest nõudmistest vankumatult keeldunud. Keeldume neist ka edaspidi. Olgem selged, see tehnoloogia piirdub iCloudis salvestatud CSAM-i tuvastamisega ja me ei nõustu ühegi valitsuse taotlusega seda laiendada. Lisaks vaatab Apple enne NCMEC-ile aruande esitamist inimeste poolt läbi. Juhul, kui süsteem märgistab fotod, mis ei vasta teadaolevatele CSAM-piltidele, kontot ei keelata ja NCMEC-ile aruannet ei esitata.

An avatud kiri Apple'i kritiseerimine ja ettevõtte üleskutse CSAM-tuvastuse kasutuselevõtu plaan viivitamatult peatada on kirjutamise ajal kogunud enam kui 7000 allkirja. WhatsAppi juht on samuti arutelusse kaalutud .

Sildid: Apple'i privaatsus , Apple'i laste turvafunktsioonid