La vérité choquante de Meredith Whittaker de Signal : L’IA, une technologie de surveillance qui va vous effrayer

Le lien étroit entre l’IA et la surveillance

De nombreuses entreprises qui se basent sur la monétisation des données de leurs utilisateurs semblent être très intéressées par l’IA. Pourquoi ? Selon Meredith Whittaker, présidente de Signal, c’est simplement parce que « l’IA est une technologie de surveillance ».

L’IA et l’industrie de la collecte de données

Lors d’une intervention à la conférence nous Disrupt 2023, Whittaker a expliqué que l’IA est étroitement liée à l’industrie de la collecte de données et du ciblage, perpétuée par des entreprises telles que Google et Meta, ainsi que par des entreprises moins axées sur les consommateurs mais tout aussi importantes dans les secteurs de l’entreprise et de la défense. Selon elle, l’IA nécessite le modèle économique de la surveillance et elle est un moyen d’enraciner et d’étendre ce modèle. « Le diagramme de Venn est un cercle », a-t-elle ajouté.

L’IA comme outil de surveillance

Whittaker souligne également que l’utilisation de l’IA elle-même est une forme de surveillance. Par exemple, lorsque l’on passe devant une caméra de reconnaissance faciale équipée d’une technologie de reconnaissance des émotions, des données sont générées à notre sujet, qu’elles soient justes ou fausses, et ces données sont utilisées par des systèmes de surveillance commercialisés auprès de ceux qui détiennent le pouvoir sur nous : nos employeurs, les gouvernements, les contrôles aux frontières, etc. Ces systèmes permettent de prendre des décisions et de faire des prédictions qui façonneront notre accès aux ressources et aux opportunités.

Le paradoxe de l’IA

Ironiquement, les données qui sous-tendent ces systèmes sont souvent organisées et annotées par les travailleurs eux-mêmes, les mêmes travailleurs qui peuvent être ciblés par ces systèmes. Whittaker explique qu’il est impossible de créer ces systèmes sans travail humain pour informer la vérité des données. Cela implique souvent des milliers de travailleurs peu rémunérés mais nécessaires pour assembler les ensembles de données d’IA. Elle souligne que, finalement, ces systèmes ne sont pas si intelligents que cela.

Des utilisations positives de l’IA

Tous les systèmes d’IA et d’apprentissage automatique ne sont pas également exploitants. Lorsqu’on lui a demandé si Signal utilisait des outils ou des processus d’IA dans son application ou dans son travail de développement, Whittaker a confirmé que l’application utilisait un « petit modèle embarqué que nous n’avons pas développé, nous l’utilisons tel quel, dans le cadre de la fonction de floutage des visages de notre outil d’édition de médias. Ce n’est pas vraiment très performant… mais cela permet de détecter les visages sur les photos de foule et de les flouter, de sorte que lorsque vous les partagez sur les réseaux sociaux, vous ne révélez pas les données biométriques intimes des personnes à Clearview, par exemple. »

Les incitations économiques de la reconnaissance faciale

Cependant, selon Whittaker, cette utilisation positive de l’IA ne doit pas nous faire oublier les incitations économiques qui sous-tendent le développement et le déploiement coûteux de la technologie de reconnaissance faciale. Elle affirme que ces incitations ne permettraient jamais à cette utilisation d’être la seule.

Comparta su opinión

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.