Apple se CSAM-stelsel is mislei, maar die maatskappy het twee voorsorgmaatreëls

Opdatering: Apple het 'n tweede inspeksie van die bediener genoem, en 'n professionele rekenaarvisiemaatskappy het 'n moontlikheid uiteengesit van wat dit beskryf kan word in "Hoe die tweede inspeksie kan werk" hieronder.
Nadat die ontwikkelaars dele daarvan omgekeer het, is die vroeë weergawe van die Apple CSAM-stelsel effektief mislei om 'n onskuldige beeld te merk.Apple het egter gesê dat dit bykomende voorsorgmaatreëls het om te voorkom dat dit in die werklike lewe gebeur.
Die jongste ontwikkeling het plaasgevind nadat die NeuralHash-algoritme op die oopbron-ontwikkelaarwebwerf GitHub gepubliseer is, enigiemand kan daarmee eksperimenteer ...
Alle CSAM-stelsels werk deur 'n databasis van bekende seksuele misbruikmateriaal van kinders van organisasies soos die National Centre for Missing and Exploited Children (NCMEC) in te voer.Die databasis word verskaf in die vorm van hashes of digitale vingerafdrukke van beelde.
Alhoewel die meeste tegnologiereuse foto's skandeer wat in die wolk opgelaai is, gebruik Apple die NeuralHash-algoritme op die kliënt se iPhone om 'n hash-waarde van die gestoorde foto te genereer, en vergelyk dit dan met die afgelaaide kopie van die CSAM-hash-waarde.
Gister het 'n ontwikkelaar beweer dat hy Apple se algoritme omgekeer het en die kode aan GitHub vrygestel het - hierdie bewering is effektief deur Apple bevestig.
Binne 'n paar uur nadat GitHib vrygestel is, het die navorsers die algoritme suksesvol gebruik om 'n opsetlike vals positiewe te skep - twee heeltemal verskillende beelde wat dieselfde hash-waarde gegenereer het.Dit word 'n botsing genoem.
Vir sulke stelsels is daar altyd 'n risiko van botsings, want die hash is natuurlik 'n baie vereenvoudigde voorstelling van die beeld, maar dit is verbasend dat iemand die beeld so vinnig kan genereer.
Die doelbewuste botsing hier is net 'n bewys van konsep.Ontwikkelaars het nie toegang tot die CSAM-hash-databasis nie, wat die skepping van vals positiewe in die intydse stelsel sal vereis, maar dit bewys wel dat botsingsaanvalle in beginsel relatief maklik is.
Apple het effektief bevestig dat die algoritme die basis van sy eie stelsel is, maar het aan die moederbord gesê dit is nie die finale weergawe nie.Die maatskappy het ook gesê dat hy nooit van plan was om dit vertroulik te hou nie.
Apple het in 'n e-pos aan Motherboard gesê dat die weergawe wat deur die gebruiker op GitHub ontleed is, 'n generiese weergawe is, nie die finale weergawe wat vir iCloud Photo CSAM-opsporing gebruik word nie.Apple het gesê dit het ook die algoritme bekend gemaak.
"Die NeuralHash-algoritme [...] is deel van die ondertekende bedryfstelselkode [en] sekuriteitsnavorsers kan verifieer dat die gedrag daarvan ooreenstem met die beskrywing," het 'n Apple-dokument geskryf.
Die maatskappy het verder gesê dat daar nog twee stappe is: om 'n sekondêre (geheime) bypassende stelsel op sy eie bediener te laat loop, en handmatige hersiening.
Apple het ook gesê dat nadat gebruikers die drempel van 30 wedstryde geslaag het, 'n tweede nie-openbare algoritme wat op Apple se bedieners loop, die resultate sal nagaan.
"Hierdie onafhanklike hash is gekies om die moontlikheid te verwerp dat die foutiewe NeuralHash ooreenstem met die geënkripteerde CSAM-databasis op die toestel as gevolg van teenstrydige inmenging van nie-CSAM-beelde en die ooreenstemmende drempel oorskry."
Brad Dwyer van Roboflow het 'n manier gevind om maklik te onderskei tussen die twee beelde wat geplaas is as 'n bewys van konsep vir 'n botsingsaanval.
Ek is nuuskierig hoe hierdie beelde lyk in CLIP van 'n soortgelyke, maar verskillende neurale kenmerk onttrekker OpenAI.CLIP werk soortgelyk aan NeuralHash;dit neem 'n beeld en gebruik 'n neurale netwerk om 'n stel kenmerkvektore te genereer wat na die inhoud van die beeld karteer.
Maar OpenAI se netwerk is anders.Dit is 'n algemene model wat tussen beelde en teks kan karteer.Dit beteken dat ons dit kan gebruik om mens-verstaanbare beeldinligting te onttrek.
Ek het die twee botsingsbeelde hierbo deur CLIP gehardloop om te sien of dit ook geflous is.Die kort antwoord is: nee.Dit beteken dat Apple 'n tweede kenmerk-onttrekkingsnetwerk (soos CLIP) op die bespeurde CSAM-beelde moet kan toepas om te bepaal of hulle eg of vals is.Dit is baie moeiliker om beelde te genereer wat twee netwerke op dieselfde tyd mislei.
Ten slotte, soos vroeër genoem, word die beelde handmatig hersien om te bevestig dat dit CSAM is.
’n Sekuriteitsnavorser het gesê die enigste werklike risiko is dat enigiemand wat Apple wil irriteer, vals positiewe aan menslike beoordelaars kan verskaf.
"Apple het eintlik hierdie stelsel ontwerp, so die hash-funksie hoef nie geheim gehou te word nie, want die enigste ding wat jy kan doen met 'nie-CSAM as CSAM' is om Apple se reaksiespan te irriteer met 'n paar gemorsbeelde totdat hulle filters implementeer om uit te skakel ontleding Daardie vullis in die pyplyn is vals positiewes,” het Nicholas Weaver, 'n senior navorser by die Instituut vir Internasionale Rekenaarwetenskap aan die Universiteit van Kalifornië, Berkeley, in 'n aanlynklets aan Motherboard gesê.
Privaatheid is 'n kwessie van toenemende kommer in vandag se wêreld.Volg alle verslae wat verband hou met privaatheid, sekuriteit, ens. in ons riglyne.
Ben Lovejoy is 'n Britse tegniese skrywer en EU-redakteur vir 9to5Mac.Hy is bekend vir sy rubrieke en dagboekartikels, en ondersoek sy ervaring met Apple-produkte oor tyd om meer omvattende resensies te kry.Hy skryf ook romans, daar is twee tegniese rillers, 'n paar kort wetenskapfiksiefilms en 'n rom-com!


Postyd: 20 Aug. 2021