Entretien avec Krystal Kauffman, une militante pour les travailleurs des plateformes de gig
Krystal Kauffman a travaillé pendant une décennie en tant qu’organisatrice de campagnes politiques et sociales avant de poursuivre des études en géologie. Elle s’est ensuite tournée vers le travail indépendant, ce qui l’a amenée à rejoindre Turkopticon, une organisation à but non lucratif dédiée à la défense des droits des travailleurs des plateformes de gig, en particulier ceux utilisant la plateforme Mechanical Turk d’Amazon.
En tant qu’organisatrice principale chez Turkopticon, Kauffman est récemment devenue chercheuse associée à l’Institut de recherche en intelligence artificielle distribuée (DAIR), travaillant avec d’autres personnes pour construire – selon ses propres termes – « une communauté de travailleurs unis dans la lutte contre les injustices des grandes plateformes du marché de la technologie ».
Questions et réponses
Brièvement, comment avez-vous commencé dans le domaine de l’IA? Qu’est-ce qui vous a attiré dans ce domaine?
En 2015, je suis tombée malade et je n’ai pas pu travailler à l’extérieur de chez moi. Pendant que les médecins tentaient de comprendre ce qui se passait, j’ai découvert la plateforme Mechanical Turk. Pendant les deux années suivantes, j’ai pu subvenir à mes besoins en effectuant des tâches de traitement de données qui ont contribué à la programmation de l’IA, à la construction de LLM, etc. Pendant cette période de travail sur Mechanical Turk, je suis devenue très passionnée par la résolution des problèmes liés à cette plateforme et par les questions éthiques liées au traitement des données en général.
Quel travail êtes-vous le plus fier d’avoir accompli dans le domaine de l’IA?
Quand j’ai commencé à travailler sur le traitement de données il y a neuf ans, très peu de personnes savaient qu’il existait une main-d’œuvre mondiale qui programmait silencieusement des appareils intelligents, développait l’IA et construisait des ensembles de données depuis leur domicile. Au cours des dernières années, j’ai fait entendre ma voix concernant cette main-d’œuvre et les défis éthiques liés au traitement des données à travers des entretiens, des panels de conférence, des articles, des forums, en aidant les législateurs, en intervenant lors de conférences et d’ateliers, ainsi que sur les réseaux sociaux. C’est un honneur pour moi d’être dans une position où je peux contribuer à éduquer le grand public, les dirigeants du Congrès et les défenseurs des travailleurs sur cette main-d’œuvre et tout ce qui l’accompagne.
Comment naviguez-vous dans les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes?
Je me considère très chanceuse car je dispose d’un excellent réseau de soutien composé de mes collègues et de mes mentors. Je choisis de m’entourer de personnes qui veulent voir les femmes et les personnes non binaires réussir. Mes mentors sont des femmes et je demande également des conseils aux hommes qui me soutiennent. Une chose qui doit cependant continuer, c’est de dénoncer les inégalités et de faire avancer le débat pour les changer.
Quels conseils donneriez-vous aux femmes qui souhaitent se lancer dans le domaine de l’IA?
Je dirais à toute femme qui souhaite se lancer dans le domaine de l’IA de foncer ! Trouver un bon mentor, voire plusieurs, est très important. Cherchez l’inspiration auprès des nombreuses femmes fortes et des personnes non binaires présentes dans ce domaine. Établissez des relations avec des hommes qui vous soutiennent. Enfin, n’ayez pas peur de vous exprimer. Les meilleures idées naissent de la confrontation avec les questions les plus difficiles !
Quels sont les problèmes les plus pressants auxquels l’IA est confrontée à mesure qu’elle évolue?
L’un des problèmes les plus pressants pour l’évolution de l’IA est l’accessibilité. Qui a accès aux outils ? Qui fournit les données et maintient le système ? Qui bénéficie de l’IA ? Quelles populations sont laissées pour compte et comment pouvons-nous changer cela ? Comment les travailleurs derrière le système sont-ils traités ?
L’autre problème que je soulèverais ici est le biais. Comment créer des systèmes totalement exempts de biais ?
Quels sont certains des problèmes dont les utilisateurs de l’IA devraient être conscients ?
Je conseillerais toujours aux utilisateurs de regarder comment les travailleurs qui entraînent l’IA sont traités. C’est un indicateur de tant de choses.
Quelle est la meilleure façon de construire de l’IA de manière responsable ?
Il est impératif d’impliquer les populations sous-représentées dans la création de l’IA. Les personnes qui seront impactées par la technologie doivent toujours avoir leur mot à dire. De même, la création de la législation sur l’IA doit impliquer les travailleurs du traitement des données. Ce sont eux qui constituent le fondement de ces systèmes et les exclure du débat serait irresponsable.
Comment les investisseurs peuvent-ils pousser davantage en faveur d’une IA responsable ?
Je dirai simplement ce que je dis depuis toujours : Rien n’est gravé dans le marbre. Nous ne sommes pas obligés d’accepter ce qui nous est présenté. Les choses ne s’améliorent que si nous parlons et agissons. Cherchez d’autres organisations qui militent en faveur d’une IA responsable. Remettez en question les conditions de travail, l’implémentation, l’utilisation, etc. Remettez en question tout ce qui semble injuste ou irresponsable.