Viime aikoina kiista on pudonnut kuin laatta Cupertino -yrityksen toimistoihin, syy on csam, tunnetaan seuranta, jonka teknologiayritykset suorittavat palveluistaan lapsipornografian etsimiseksi potentiaalisten uhrien suojelemiseksi.
Apple varoittaa, että sen lapsipornografian seurantaprotokolla ei toimi iCloud -valokuvissa, mutta se on ollut Mailissa vuosia. Itse asiassa se on käytäntö, jota monet muut yritykset jo toteuttavat, eikä se näytä nostaneen rakkuloita kuluneiden aikojen aikana, mitä CSAM -protokollille tapahtuu?
Itse asiassa Apple on vahvistanut, että se on skannannut iCloud Mailin sisältöä vähintään kolme vuotta etsiessään lapsipornografiaa ja turvallisuussyistä, mitä esimerkiksi Google on tehnyt useita vuosia Gmailissa. He ovat kuitenkin pitäneet tarpeellisena selventää, että tätä "skannausjärjestelmää" ei suoriteta (toistaiseksi) iCloud -valokuvissa.
Joka tapauksessa tämä "ryömi" Se ei vaikuta valokuviin, jotka on tallennettu laitteemme fyysiseen muistiin, mutta vain niissä, jotka kulkevat iCloud -palvelimien kautta tai lähetetään sähköpostin kautta.
Apple käyttää kuvanhaku- ja analysointitekniikkaa löytääkseen ja ilmoittaakseen lasten hyväksikäytöstä. Järjestelmämme käyttää kehittyneitä sähköisiä allekirjoituksia.
Tämä ei kuitenkaan kerro meille juurikaan mitään Applen skannausjärjestelmän toiminnasta, ellet ole osallistunut tällaiseen rikolliseen toimintaan, Mikä ongelma on algoritmissa, joka tunnistaa lapsipornografian Applen palvelimilla? Samaan aikaan kiistat ovat edelleen ajankohtaisia tässä asiassa, joka näyttää olevan erittäin huolestuttava Yhdysvalloissa.