EXPERTISE + LIBERTÉ
= OPINIONS

EXPERTISE + LIBERTÉ
= OPINIONS

IA et discrimination : les 3 règles dans l’IA afin d’éviter les préjugés

Publié le
23/7/2019
|
LOUIS OLIVE
|
Intelligence Artificielle
Temps de lecture estimé : 3 minutes
Publié le
23/7/2019
LOUIS OLIVE
|
Intelligence Artificielle

Un sujet (enfin) pris en compte par les GAFA

Le sujet de la discrimination lors de l’utilisation d’IA est à raison au cœur de l’actualité. Google a annoncé en 2018 avoir développé un outil d’IA permettant de détecter d’éventuels préjugés. Facebook a communiqué en avril sur le sujet lors d’une de ses conférences annuelles (F8, dédiée au développement). L’entreprise souhaite que ces outils utilisant l’IA puissent détecter et éviter tous types de biais sexistes et racistes.

L’IA, un outil plus qu’une réponse à toute question

De fait, les résultats issus de travaux de machine learning ne font que reproduire les comportements humains, sans distinction aucune. Ces biais observés dans les résultats ne sont que le reflet des biais inclus dans les données traitées. Certains raccourcis sont utilisés dans la presse pour évoquer des dérapages d’IA. Le cas du chatbot Microsoft est flagrant. Celui-ci a fini par tenir des propos racistes sur Twitter car les tweets qui lui étaient adressé (les données entrantes) étaient eux même racistes. Le machine learning et l’IA de manière générale ne restent que des outils de calcul.

un tweet de TayTweets, l'IA développé par Microsoft, montrant son aversion pour l'Humanité, au bout de 24h seulement
TayTweets, l'IA développé par Microsoft a mis 24h à devenir misanthrope au contact des humains sur Twitter

Les biais ressortent de manière directe et indirecte

Cette problématique s’amplifie quand ces notions (de sexe, d’orientation sexuelle, de religion ou autre) ne sont pas présentes dans les données entrantes mais que les résultats peuvent contenir des biais. Google s’est rendu compte que les résultats lors de la recherche « médecin » dans la section image ne comportaient exclusivement que des hommes. Pourtant cela ne relève pas d’une démarche pro-active de Google, ni de son algorithme de référencement. Arriver à détecter des biais reste complexe également dans l’analyse de texte, utilisant des métaphores et de nombreuses conventions.

Règle 1 : tout le monde se met autour de la table

La base de tous processus de machine learning commence par une phase de cadrage : on y définit les valeurs cibles à atteindre, les bases à utiliser ainsi que les hypothèses et biais à identifier. Cette phase et plus particulièrement ce dernier point tend à être souvent oublié – nombreux sont ceux voulant révolutionner leur business avec de l’IA sans pour autant modifier la manière de collecter les données, voir de changer de mode de fonctionnement.

Cela requiert de mettre autour de la table des responsables data, des l’UX/UI, du marketing digital mais également des responsables offlines (de magasins dans le cas du retail par exemple). Collecter des données en minimisant les biais est complexe et requière souvent de revoir l’intégralité du parcours client.

Règle 2 : évitez la solution unique à des problématiques complexes

La recherche s’oriente vers des systèmes hybrides, intégrant des algorithmes de plusieurs sortes. Des systèmes intégrant machine learning et système expert permettent d’établir des règles réduisant les biais. Les systèmes experts sont une des branches de l’IA, très utilisés dans les années 80, car moins gourmands en puissance de calcul. Ils sont aujourd’hui peu en vue mais permettent de facilement garder le contrôle sur le type d’analyse que l’on souhaite effectuer. Au niveau Business cela permet dans de nombreux cas d’obtenir des résultats probants, en couplant un système expert à une simple régression linéaire.

Règle 3 : le jugement humain reste imbattable

La plus simple des méthodes reste de ne pas retirer en totalité l’expertise humaine de la décision. Cela se traduit par des méthodes de contrôle qualité des résultats d’algorithme, similaires aux contrôles qualité effectués sur des chaînes automatisées en industrie. Dans le cadre de chatbots basés sur de l’IA, ceux-ci peuvent traiter rapidement plus de 90% des cas. Mais il est judicieux qu’un téléconseiller reprenne la main en cas de demandes complexes ou ambiguës. La méthode est simple à mettre en place, et permet d’éviter toute réponse erronée ou impliquant des biais.

Le sujet reste néanmoins complexe à traiter. Il est crucial d’être méthodique quand on manipule les données car il est difficile de savoir si on est en train d’effacer un biais ou d’en introduire d’autres. Les solutions d’Intelligence Artificielle doivent intégrer les aspects sociaux, sociétaux et environnementaux, c’est en tout cas un prérequis dans nos travaux chez Keley.

Sources :

Gender Bias in Artificial Intelligence: The Need for Diversity and Gender Theory in Machine Learning - Susan Leavy - University College Dublin (https://www.insight-centre.org/sites/default/files/publications/17.188_gender_bias_in_artifical_intelligence_the_need_for_diversity_and_gender_theory_in_machine_learning.pdf)

Intelligence Artificielle et Sexisme - Politiqu'Elles (https://politiquelles.org/intelligence-artificielle-et-sexisme/)

Google : un outil pour combattre le racisme et le sexisme des IA – Bastien L (https://www.lebigdata.fr/google-outil-prejuges-ia)

Facebook adopte de nouvelles règles pour lutter contre les biais sexistes et racistes des IA – Nelly Lesage (https://www.numerama.com/sciences/509856-facebook-adopte-de-nouvelles-regles-pour-lutter-contre-les-biais-sexistes-et-racistes-des-ia.html)

Photo de l'auteur de l'article
LOUIS OLIVE

Consultant chez Keley Consulting

Passionné par l'innovation et l'utilisation de la données, Louis a notamment travaillé pour Renault, Orange, Système U et la Maif.

Consultant chez Keley Consulting

Passionné par l'innovation et l'utilisation de la données, Louis a notamment travaillé pour Renault, Orange, Système U et la Maif.

Partager cet article :

Vous avez un projet digital ? Nous pouvons vous aider à définir et concrétiser rapidement votre stratégie.

Contactez-nous

Commentaires

Commentaires

Commentez cet article !

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Soyez le premier à commenter cet article !

Commentaires

Commentaires

// JavaScript Document

Commentaires

Inscrivez-vous à La newsletter keley

Recevez tous les mois nos paroles d'experts et l'actualité du digital dans notre newsletter.

Merci ! Votre message a bien été envoyé.
Désolé ! Votre message n'a pu être envoyé.