November 28, 2022

Branches Tech

Engagé pour la qualité technologique

Un chien de garde de la vie privée demande aux entreprises d’abandonner l’IA qui analyse les émotions

3 min read

Les entreprises devraient réfléchir à deux fois avant de déployer des systèmes d’analyse émotionnelle alimentés par l’IA sujets aux biais systémiques et autres snafus, a averti cette semaine l’Information Commissioner’s Workplace (ICO) du Royaume-Uni.

Les organisations font l’objet d’une enquête si elles maintiennent et utilisent cette technologie de qualité inférieure qui satisfied les gens en threat, a ajouté le chien de garde.

Les algorithmes d’apprentissage automatique censés prédire les humeurs et les réactions d’une personne utilisent la eyesight par ordinateur pour suivre les regards, les mouvements du visage et le traitement audio pour évaluer l’inflexion et le sentiment général. Comme on peut l’imaginer, ce n’est pas nécessairement precise ou juste, et il peut y avoir des problèmes de confidentialité lors du traitement des données pour la development et l’inférence.

En effet, le sous-commissaire de l’ICO, Stephen Bonner, a déclaré que la technologie n’était pas infaillible, entraînant des biais systémiques, des inexactitudes ou une discrimination contre des groupes sociaux spécifiques. “Les développements sur le marché de la biométrie et de l’IA émotionnelle sont immatures. Ils ne fonctionnent peut-être pas encore, voire jamais”, a-t-il déclaré. a dit dans un rapport.

“Bien qu’il existe des opportunités, les risques sont actuellement in addition grands. À l’ICO, nous craignons qu’une analyse incorrecte des données puisse entraîner des hypothèses et des jugements inexacts sur une personne et conduire à la discrimination”, a poursuivi son communiqué.

Bonner a noté que les logiciels d’analyse émotionnelle sont souvent associés à des systèmes biométriques, collectant et stockant un additionally large éventail d’informations personnelles au-delà des visuals faciales. Les fournisseurs de logiciels ne sont souvent pas transparents sur la manière dont ces données personnelles sont traitées ou enregistrées.

“Les seuls déploiements biométriques durables seront ceux qui sont entièrement fonctionnels, responsables et soutenus par la science”, a-t-il déclaré. “Dans l’état actuel des choses, nous n’avons pas encore vu de technologie d’IA émotionnelle se développer de manière à satisfaire aux exigences de defense des données, et nous avons des concerns moreover générales sur la proportionnalité, l’équité et la transparence dans ce domaine.”

Ce qui semble être une manière polie de dire : vous ne devriez utiliser que des modèles d’IA de lecture des émotions qui fonctionnent comme l’ICO s’y go to, et ces modèles n’existent pas, vous devez donc simplement arrêter ce que vous faites.

L’organisme britannique de surveillance de la confidentialité des données devrait publier un rapport détaillant remark les données biométriques, y compris la reconnaissance faciale, l’identification des empreintes digitales et la reconnaissance vocale, devraient être traitées par les entreprises l’année prochaine au printemps.

“L’ICO continuera à scruter le marché, en identifiant les functions prenantes qui cherchent à créer ou à déployer ces technologies, et en expliquant l’importance d’une confidentialité et d’une conformité accrues des données, tout en encourageant la confiance dans le fonctionnement de ces systèmes”, a ajouté Bonner.

Les specialists tirent la sonnette d’alarme sur l’analyse des sentiments et des émotions depuis des années. Les sentiments sont subjectifs et il est difficile de les interpréter avec précision. Les humains ne peuvent souvent pas le faire efficacement pour eux-mêmes ou pour les autres, sans parler des machines. ®

Leave a Reply