Webconférence : Comment assurer une utilisation équitable et transparente des technologies de l’IA ?

Also in... (English)

  • 5 mai, 14h00 – 15h00 CET

Dans les sessions précédentes de notre série de webconférences, nous avons discuté de la police prédictive et de la reconnaissance faciale. D’une part, ces technologies basées sur l’intelligence artificielle offrent un éventail d’opportunités dans le domaine de la sécurité urbaine. Les logiciels de reconnaissance faciale peuvent faciliter la recherche de personnes disparues, ainsi que l’identification et la localisation de criminels. Les logiciels de prédiction de la délinquance accélèrent le traitement et l’analyse de grandes quantités de données et peuvent aider à guider les autorités de sécurité dans leurs opérations quotidiennes.

D’un autre côté, nous devons peser les implications éthiques, juridiques et sociales de l’utilisation de ces technologies de surveillance. Les recherches menées dans le cadre du projet Cutting Crime Impact (CCI) ont révélé qu’en termes de prévention, les résultats des logiciels de police prédictive sont sujets à débat. Certains affirment que l’approche pourrait déboucher sur des processus décisionnels exempts de biais humains – à condition que la sélection et la qualité des données soient rigoureuses, sinon les biais peuvent être renforcés. La question de la représentativité des bases de données est une question clé lorsqu’il s’agit de reconnaissance faciale : Des études ont montré que le taux d’erreur varie en fonction du sexe et de la couleur de la peau. D’autres préoccupations sont liées à la protection des données, au droit à la vie privée et au droit de libre circulation et d’association. En outre, les villes doivent réfléchir en termes de coûts et d’avantages et évaluer si ces outils ont un réel impact sur la prévention de la criminalité.

Alors qu’un certain nombre de villes européennes expérimentent la police prédictive et la reconnaissance faciale, d’autres villes et régions utilisent différentes applications des technologies basées sur l’IA. La ville d’Amsterdam utilise un algorithme pour reconnaître des mots-clés dans les plaintes que les résidents soumettent à la municipalité. En outre, la ville teste l’utilisation de caméras pour contrôler le respect des règles de distance physique dans les espaces publics.

Que ce soit pour la surveillance ou à d’autres fins de sécurité et de prévention, comment les villes peuvent-elles garantir une utilisation équitable et transparente des technologies basées sur l’intelligence artificielle ? Dans cette session, nous explorons cette question en rappelant les risques associés à ces technologies et en présentant les garde-fous et ressources existants. Nous discuterons notamment de ces questions :

  • Quelles sont les opportunités et les risques liés à l’utilisation des technologies basées sur l’intelligence artificielle dans les petites villes ?
  • Ces technologies pourraient-elles soutenir la prise de décision en permettant de mieux appréhender les problèmes existants ?
  • Ces technologies sont-elles de véritables outils de prévention au niveau local ?
  • Au-delà de la police prédictive et de l’intelligence artificielle, quels autres cas d’utilisation des technologies basées sur l’IA existent ?
  • Comment mettre en place des garde-fous pour garantir une utilisation équitable et transparente de ces technologies ?

Intervenants :

  • Jana Degrott est conseillère municipale à la Ville de Steinsel (LU), cofondatrice de « We Belong » – un podcast et une plateforme permettant aux personnes de couleur de partager leurs expériences personnelles – et déléguée des jeunes au Conseil de l’Europe.
  • Linda Van de Fliert travaille au Chief Technology Office de la Ville d’Amsterdam (NL). La CTO collabore avec d’autres départements pour faire de l’innovation une réalité dans la ville. Il travaille sur des thèmes tels que l’e-santé, l’économie circulaire et la mobilité intelligente.

>>> Inscription <<<


>>> Plus d’informations sur la série de webconférences

Contact:
>> Pauline Lesch, chargée de mission, lesch@efus.eu
>> Pilar de la Torre, chargée de mission, delatorre@efus.eu

—————————————————————————————————–

1. Fiches de synthèse Cutting Crime Impact sur l’état de l’art de la police prédictive et ses implications éthiques, juridiques et sociales.

2. Les meilleurs algorithmes peinent à reconnaître les visages noirs de manière égale, Tom Simonite. Wired, 2019.


2021-04-22

1619088205

21454