Story

Actualités  | Chez Apple aussi, des humains écoutent certaines conversations avec Siri Accueil - AV+
 
Actualités   Politique People Sport Finance Gospel Music Life Style Vidéos Bien Être Cuisine Voyage Tech et Science
Chez Apple aussi, des humains écoutent certaines conversations avec Siri
Sur son site internet, Apple assure que toutes les requêtes formulées à Siri sont chiffrées et illisibles. Mais un lanceur d'alerte révèle que comme chez Amazon et Google, des humains écoutent certains enregistrements pour étudier les dysfonctionnements.

Après Google et Amazon, voici venu le tour d’Apple. L’entreprise engage des sous-traitants pour examiner des bribes de conversations captées par Siri, son assistant vocal intelligent qui équipe aussi bien les iPhone que les Mac, révèle le Guardian. Pour rappel, seuls les échanges entre Siri et l’utilisateur sont enregistrés. Mais pour qu’il se réveille avec le mot-clé ''Dis Siri'', l’appareil est en permanence à l’écoute, dans l’attente d’être sollicité. Et il peut se tromper. Il est évidemment possible de le désactiver.

Comme pour tous les autres assistants vocaux, Apple écoute les moments où Siri s’active sans raison pour comprendre d’où vient le problème. Ce qui amène des salariés chargés d’examiner ces dysfonctionnements à écouter des bribes d'enregistrements parfois sensibles, comme des ébats sexuels ou du trafic de drogue.


Quid de l'anonymisation des données?

Un lanceur d’alerte qui travaillait pour un sous-traitant d'Apple a confié ses craintes au Guardian. En raison de la fréquence à laquelle Siri se déclenche (un simple bruit de fermeture éclair pourrait le tromper), des renseignements personnels très sensibles sont collectés:

''Il y a eu d'innombrables cas d'enregistrements de discussions privées entre médecins et patients, de transactions commerciales, de transactions apparemment criminelles, de rencontres sexuelles, etc. Ces enregistrements sont accompagnés des données de l'utilisateur indiquant parfois sa localisation ou des données de contact.''

''Apple sous-traite et il y a beaucoup de rotation des effectifs. Ce n'est pas comme si on les encourageait à prendre en compte la dimension privée des conversations qu’ils examinent. Si quelqu'un avait de mauvaises intentions, il n'aurait pas de difficulté à identifier l’interlocuteur''

Interrogé par le Guardian, Apple se défend: ''Une petite partie des demandes de Siri sont analysées. Les requêtes des utilisateurs ne sont pas associées à leur identifiant Apple. Les réponses de Siri sont analysées dans des installations sécurisées et tous les évaluateurs sont tenus de respecter les strictes exigences de confidentialité d'Apple''.


Amazon et Google font pareil

Apple n’est pas la seule entreprise à recourir à ce procédé. Amazon le fait pour son assistant intelligent Alexa, de la même manière que Google pour Google Assistant. Les deux entreprises proposent à chaque utilisateur de supprimer son historique d'enregistrements vocaux. Et Amazon offre même la possibilité de désactiver l’option qui l'autorise à utiliser ces données pour contribuer à développer de nouvelles fonctionnalités.

Apple ne propose rien de tout cela. Lors de la sortie de son enceinte connectée baptisée HomePod, équipée de l’assistant Siri, Apple avait expliqué ne pas prévoir d’exploiter les commandes vocales. Toutes les données devaient être anonymisées et chiffrées, les rendant théoriquement illisibles de tous, même d’Apple. C'est d'ailleurs ce qui est indiqué sur son site internet.

L'enquête du Guardian met à mal ce discours. Apple se positionne souvent en chantre de la protection de la vie privée, en opposition aux autres géants de la tech. Lors du CES de Las Vegas en janvier 2019, elle avait même fait afficher une grande publicité vantant : ''Ce qui se passe dans votre iPhone reste dans votre iPhone''. Ou presque.

Source: BFMTV