Empêcher les appareils intelligents de vous espionner

Résumé: Des chercheurs ont développé un nouvel algorithme d’IA qui empêche les appareils intelligents comme Alexa ou Siri d’entendre correctement vos paroles 80 % du temps. L’algorithme est une étape vers la fourniture d’une agence personnelle pour protéger la confidentialité de leur voix en présence d’appareils intelligents.

La source: Université de Colombie

Avez-vous déjà remarqué des publicités en ligne qui vous suivent et qui sont étrangement proches de quelque chose dont vous avez récemment parlé avec vos amis et votre famille ? Les microphones sont intégrés dans presque tout aujourd’hui, de nos téléphones, montres et téléviseurs aux assistants vocaux, et ils sont toujours à votre écoute. Les ordinateurs utilisent constamment les réseaux de neurones et l’IA pour traiter votre discours, afin d’obtenir des informations sur vous. Si vous vouliez empêcher que cela se produise, comment pourriez-vous vous y prendre ?

À l’époque, comme le montre l’émission télévisée à succès “The Americans”, vous jouiez de la musique avec le volume à fond ou allumiez l’eau dans la salle de bain. Et si vous ne vouliez pas constamment crier sur la musique pour communiquer ?

Ingénierie de la Colombie les chercheurs ont mis au point un nouveau système qui génère des sons silencieux que vous pouvez jouer dans n’importe quelle pièce, dans n’importe quelle situation, pour empêcher les appareils intelligents de vous espionner. Et il est facile à mettre en œuvre sur du matériel comme les ordinateurs et les smartphones, ce qui permet aux utilisateurs de protéger la confidentialité de leur voix.

“Un défi technique clé pour y parvenir était de faire en sorte que tout fonctionne assez rapidement”, a déclaré Carl Vondrickprofesseur adjoint de l’informatique.

“Notre algorithme, qui parvient à empêcher un microphone malveillant d’entendre correctement vos paroles 80 % du temps, est le plus rapide et le plus précis de notre banc d’essai.

“Cela fonctionne même lorsque nous ne savons rien sur le microphone malveillant, comme son emplacement ou même le logiciel informatique qui y est exécuté. Il camoufle essentiellement la voix d’une personne en direct, la cachant de ces systèmes d’écoute et sans gêner la conversation entre les personnes dans la pièce.

Garder une longueur d’avance sur les conversations

Alors que les résultats de l’équipe dans la corruption des systèmes de reconnaissance automatique de la parole sont théoriquement connus pour être possibles dans l’IA depuis un certain temps, les atteindre assez rapidement pour être utilisés dans des applications pratiques reste un goulot d’étranglement majeur. Le problème est qu’un son qui interrompt la parole d’une personne maintenant – à ce moment précis – n’est pas un son qui interrompra la parole une seconde plus tard.

Au fur et à mesure que les gens parlent, leur voix change constamment car ils disent des mots différents et parlent très vite. Ces altérations rendent presque impossible pour une machine de suivre le rythme rapide de la parole d’une personne.

“Notre algorithme est capable de suivre le rythme en prédisant les caractéristiques de ce qu’une personne dira ensuite, en lui donnant suffisamment de temps pour générer le bon chuchotement à faire”, a déclaré Mia Chiquier, auteur principal de l’étude et doctorant dans le laboratoire de Vondrick.

“Jusqu’à présent, notre méthode fonctionne pour la majorité du vocabulaire de la langue anglaise, et nous prévoyons d’appliquer l’algorithme à d’autres langues, ainsi que de rendre éventuellement le son du chuchotement complètement imperceptible.”

Lancer des “attaques prédictives”

Les chercheurs devaient concevoir un algorithme capable de briser les réseaux de neurones en temps réel, qui pourrait être généré en continu au fur et à mesure que la parole est prononcée et applicable à la majorité du vocabulaire d’une langue.

Bien que des travaux antérieurs aient réussi à répondre à au moins une de ces trois exigences, aucun n’a atteint les trois. Le nouvel algorithme de Chiquier utilise ce qu’elle appelle des “attaques prédictives”, un signal qui peut perturber n’importe quel mot que les modèles de reconnaissance automatique de la parole sont entraînés à transcrire.

De plus, lorsque les sons d’attaque sont diffusés en direct, ils doivent être suffisamment forts pour perturber tout microphone “d’écoute” indésirable qui pourrait être éloigné. Le son d’attaque doit porter la même distance que la voix.

L’approche des chercheurs atteint des performances en temps réel en prévoyant une attaque sur l’avenir du signal, ou du mot, conditionnée à deux secondes de parole d’entrée.

Alors que les résultats de l’équipe dans la corruption des systèmes de reconnaissance automatique de la parole sont théoriquement connus pour être possibles dans l’IA depuis un certain temps, les atteindre assez rapidement pour être utilisés dans des applications pratiques reste un goulot d’étranglement majeur. L’image est dans le domaine public

L’équipe a optimisé l’attaque afin qu’elle ait un volume similaire au bruit de fond normal, permettant aux personnes présentes dans une pièce de converser naturellement et sans être surveillées avec succès par un système de reconnaissance vocale automatique.

Voir également

Ceci est un dessin animé d'une femme avec une ombre qui la surplombe

Le groupe a démontré avec succès que leur méthode fonctionne dans des pièces du monde réel avec un bruit ambiant naturel et des géométries de scène complexes.

IA éthique

“Pour beaucoup d’entre nous dans la communauté de la recherche, les préoccupations éthiques de la technologie de l’IA sont une question essentielle, mais cela semble appartenir à un processus de réflexion distinct. C’est comme si nous étions si heureux d’avoir finalement fabriqué une voiture de conduite, mais que nous avions oublié de concevoir un volant et un frein », déclare Jianbo Shiprofesseur d’informatique et de sciences de l’information à l’Université de Pennsylvanie et chercheur de premier plan dans le domaine de l’apprentissage automatique.

“En tant que communauté, nous devons réfléchir” consciemment “à l’impact humain et sociétal de la technologie d’IA que nous développons dès la première phase de conception de la recherche. L’étude de Mia Chiquier et Carl Vondrick pose la question : “comment utiliser l’IA pour nous protéger contre les utilisations involontaires de l’IA ?”

“Leur travail fait que beaucoup d’entre nous réfléchissent dans la direction suivante : demandez-vous non pas ce que l’IA éthique peut faire pour nous, mais ce que nous pouvons faire pour l’IA éthique ? Une fois que nous croyons en cette direction, la recherche éthique sur l’IA est tout aussi amusante et créative.

Le financement: Cette recherche est basée sur des travaux soutenus par le NSF CRII Award 1850069 et le NSF CAREER Award 2046910. MC est soutenu par une bourse de doctorat CAIT. Les points de vue et les conclusions ne doivent pas être interprétés comme représentant nécessairement les politiques officielles, expresses ou implicites, des sponsors.

À propos de cette actualité de la recherche sur l’intelligence artificielle et les appareils intelligents

Auteur: Holly Evarts
La source: Université de Colombie
Contacter: Holly Evarts – Université Columbia
Image: L’image est dans le domaine public

Recherche originale : Les conclusions seront présentées lors de la Conférence internationale sur les représentations de l’apprentissage

Leave a Comment