Apple permetrà que tries si vols que et escolti o no

Fa uns dies es publicava la notícia que Apple escoltava les nostres converses amb Siri, una cosa que ja sabíem i que Apple ja explicava en les condicions del servei, però la novetat radicava que eren algunes persones contrapassa per a aquesta tasca les que ens explicaven alguns detalls.

Tot i que la companyia assegurava que la privadesa estava garantida i que aquestes dades que es feien servir mai no es podrien associar amb els seus «amos», la polèmica estava servida perquè molts usuaris van començar a plantejar-se si de debò podia confiar en Apple i Siri. El resultat final ha estat que Apple ha suspès aquest programa de supervisió i millora de Siri a nivell mundial, i quan ho reactivi els usuaris podran triar si volen que s'escoltin les seves converses o no.

Apple ens escolta

Sí, Apple ens escolta, i no ho amaga. La companyia garanteix que la nostra privadesa està protegida ja que només escolten petits fragments que a més no es poden associar amb l'usuari que els ha dit. Els empleats que s'encarreguen d'escoltar el que diem a Siri no saben qui ho ha dit, i no tenen manera de saber-ho. Aquestes escoltes són imprescindibles per poder millorar l'assistent d'Apple, que millori en la comprensió de les nostres preguntes i les respostes.

Quin és el problema? Primer, que els que escolten aquestes converses no són empleats d'Apple, sinó d'una altra empresa que Apple ha contractat per a aquest propòsit. Les clàusules de confidencialitat segur que seran molt estrictes, però ha generat desconfiança entre els usuaris que no sigui la mateixa Apple la que ho fa. Segon, que les nostres dades personals estan encriptades, però què passa si en aquest fragment que se sent diem les nostres dades personals? Aquí sí que podrien identificar l'usuari.

Apple donarà una solució ben aviat

Apple ha donat una resposta ràpida, com no podria ser duna altra manera. Una companyia que presumeix de respectar la privadesa dels seus usuaris no es pot permetre aquest tipus de polèmiques i ha fet un primer pas per aviat donar la solució definitiva. Ho ha fet tard al meu entendre, perquè s'hauria d'haver anticipat a la polèmica, però almenys ho ha fet, cosa que d'altres ni es plantegen.

De moment ha suspès aquest programa de control de qualitat de Siri, per la qual cosa ara mateix ningú no escolta el que diem al seu assistent. En breu tornarà a reactivar-lo, però serà amb un botó dins de les preferències del sistema que donarà a l'usuari l'opció de participar en aquest programa de millora de Siri o no. Si no vols que escoltin res del que dius a Siri de forma anònima, podràs desactivar-ho. El més curiós serà que molts dels que el desactivin seguiran usant Gmail, WhatsApp, Facebook, Instagram, permetran que Google Maps rastregi la teva ubicació, i tindran altaveus d'Alexa o Google Assistant a casa.


Escolta, Siri
T'interessa:
Més de 100 preguntes divertides que li podem fer a Siri
Segueix-nos a Google News

Deixa el teu comentari

La seva adreça de correu electrònic no es publicarà. Els camps obligatoris estan marcats amb *

*

*

  1. Responsable de les dades: AB Internet Networks 2008 SL
  2. Finalitat de les dades: Controlar l'SPAM, gestió de comentaris.
  3. Legitimació: El teu consentiment
  4. Comunicació de les dades: No es comunicaran les dades a tercers excepte per obligació legal.
  5. Emmagatzematge de les dades: Base de dades allotjada en Occentus Networks (UE)
  6. Drets: En qualsevol moment pots limitar, recuperar i esborrar la teva informació.

  1.   Analista Tecnològic va dir

    Al final nomenes Alexa, quan és un sistema que respecta la privadesa en els seus altaveus, molt més que Apple. De fet, fa molt que incloïen l'opció de desactivar les escoltes i anàlisis per humans, això de tot això ara presumeixes que farà Apple.
    Per cert, cuida una mica més la construcció sintàctica de les teves frases.