Intelligence artificielle et profilages
Ce webinaire présente deux conférences sur le thème de l’intelligence artificielle et des profilages.
IA et profilages : risques éthiques et juridiques (Visionner l’enregistrement)
Par Céline Castets-Renard, professeure titulaire, Faculté de droit civil, Université d’Ottawa. Titulaire de la chaire IA responsable à l’échelle mondiale et de la chaire Law au sein d’ANITI (Artificial and Natural Intelligence Toulouse Institute). Affiliée au Yale Internet Society Project et membre de l’Observatoire de l’économie des plateformes à la Commission européenne.
Résumé: Alors que l’intelligence artificielle et les technologies en général sont régulièrement présentées comme facteurs de progrès dans les sociétés, la réalité est souvent toute autre et peut conduire à des situations de profilage et de discrimination. Plusieurs études portant sur la reconnaissance faciale ont pu montrer la discrimination envers les personnes racisées et envers les femmes. De même, si l’usage de l’IA en imagerie médicale est un exemple a priori positif pour aider au diagnostic des cancers, il faut aussi considérer plus largement les facteurs socio-économiques et techniques de mise en oeuvre qui peuvent conduire à exclure des personnes, notamment selon leur pathologie ou leur ethnie. Également, les lois anti-avortement adoptées récemment dans plusieurs États américains donnent lieu à une surveillance par des dispositifs technologiques de géolocalisation ou collecte d’informations auprès des géants du numérique ou courtiers des données, afin de traquer les femmes souhaitant interrompre leur grossesse. Ces cas de profilages fondés sur le genre, la race ou la santé illustrent le fait que les rapports de pouvoir, domination et contrôle social sont alors maintenus voire renforcés dans l’utilisation de technologies. La discussion engagera à la recherche collective de solutions.
Intelligence artificielle : jeux de données et jeux de pouvoir (Visionner l’enregistrement)
Par Julie-Michèle Morin, doctorante en Littératures de langue française à l’Université de Montréal. Sa thèse porte sur la robotique dans les arts vivants. Elle mobilise une approche technoféministe pour réfléchir aux enjeux politiques soulevés par la rencontre entre les arts, les cultures numériques et les dispositifs technoscientifiques. Elle est également conseillère dramaturgique et se spécialise dans l’accompagnement des écritures médiatiques de la scène.
Résumé: Les systèmes d’intelligences artificielles (IA), et plus largement les innovations technologiques, sont toujours le résultat d’un processus de coopération entre des forces humaines (programmeur·euses, mathématicien·nes, algorithmicien·nes, technicien·es informatiques, etc.) et des agents autres qu’humains (protocoles informatiques, statistiques, formules mathématiques, diverses applications d’apprentissage automatisé ou semi-automatisé, etc.). Cette collaboration vise à créer et à raffiner le fonctionnement des algorithmes à l’œuvre dans une IA. Ce faisant, toute technologie est la matérialisation du système de valeurs des personnes, ou plus fréquemment des compagnies et des groupes de recherche, derrière sa fabrication. Ces artéfacts technologiques contiennent des principes, des politiques et des intérêts qui reflètent les valeurs de leurs concepteur·trices, des industries pour lesquelles iels travaillent. Les jeux de données (datasets) mobilisés pour créer les IA sont des témoins directs de ces valeurs, de ces idéologies et de ces postures. Loin d’être neutres, ces technologies modifient et déterminent les expériences individuelles, sociales et collectives que l’on fait de la race, du sexe, du genre et de la classe. Ce webinaire sera l’occasion de réfléchir au rôle que joue le choix des données utilisées pendant l’entrainement des systèmes d’intelligences artificielles et aux effets que ces encodages provoquent dans le processus de discrimination et de profilage de certains groupes sociaux historiquement marginalisés. Afin d’exemplifier concrètement cette réflexion sur la technologisation du profilage, je m’appuierai sur deux figures de cas : d’abord, les méthodes de police prédictives, avec l’exemple des outils développés par PredPol puis ensuite, l’évaluation judiciaire du risque de récidive des prévenu·es, avec le cas de l’outil COMPAS (Correctional Offender Management Profiling for Alternative Sanctions).