IA et discrimination : les 3 règles dans l’IA afin d’éviter les préjugés

Catégorie :

Data Science

Savoir-faire :

Data & Digital Performance

Publié le :

23

July

2019

Temps de lecture :

3 minutes

#
Article
#
Intelligence Artificielle
#
DataScience
Photo d'un prisme symbolisant les biais que peut avoir une solution d'Intelligence Artificielle
Article mis à jour le

Un sujet (enfin) pris en compte par les GAFA

Le sujet de la discrimination lors de l’utilisation d’IA est à raison au cœur de l’actualité. Google a annoncé en 2018 avoir développé un outil d’IA permettant de détecter d’éventuels préjugés. Facebook a communiqué en avril sur le sujet lors d’une de ses conférences annuelles (F8, dédiée au développement). L’entreprise souhaite que ces outils utilisant l’IA puissent détecter et éviter tous types de biais sexistes et racistes.

L’IA, un outil plus qu’une réponse à toute question

De fait, les résultats issus de travaux de machine learning ne font que reproduire les comportements humains, sans distinction aucune. Ces biais observés dans les résultats ne sont que le reflet des biais inclus dans les données traitées. Certains raccourcis sont utilisés dans la presse pour évoquer des dérapages d’IA. Le cas du chatbot Microsoft est flagrant. Celui-ci a fini par tenir des propos racistes sur Twitter car les tweets qui lui étaient adressé (les données entrantes) étaient eux même racistes. Le machine learning et l’IA de manière générale ne restent que des outils de calcul.

un tweet de TayTweets, l'IA développé par Microsoft, montrant son aversion pour l'Humanité, au bout de 24h seulement
TayTweets, l'IA développé par Microsoft a mis 24h à devenir misanthrope au contact des humains sur Twitter

Les biais ressortent de manière directe et indirecte

Cette problématique s’amplifie quand ces notions (de sexe, d’orientation sexuelle, de religion ou autre) ne sont pas présentes dans les données entrantes mais que les résultats peuvent contenir des biais. Google s’est rendu compte que les résultats lors de la recherche « médecin » dans la section image ne comportaient exclusivement que des hommes. Pourtant cela ne relève pas d’une démarche pro-active de Google, ni de son algorithme de référencement. Arriver à détecter des biais reste complexe également dans l’analyse de texte, utilisant des métaphores et de nombreuses conventions.

Règle 1 : tout le monde se met autour de la table

La base de tous processus de machine learning commence par une phase de cadrage : on y définit les valeurs cibles à atteindre, les bases à utiliser ainsi que les hypothèses et biais à identifier. Cette phase et plus particulièrement ce dernier point tend à être souvent oublié – nombreux sont ceux voulant révolutionner leur business avec de l’IA sans pour autant modifier la manière de collecter les données, voir de changer de mode de fonctionnement.

Cela requiert de mettre autour de la table des responsables data, des l’UX/UI, du marketing digital mais également des responsables offlines (de magasins dans le cas du retail par exemple). Collecter des données en minimisant les biais est complexe et requière souvent de revoir l’intégralité du parcours client.

Règle 2 : évitez la solution unique à des problématiques complexes

La recherche s’oriente vers des systèmes hybrides, intégrant des algorithmes de plusieurs sortes. Des systèmes intégrant machine learning et système expert permettent d’établir des règles réduisant les biais. Les systèmes experts sont une des branches de l’IA, très utilisés dans les années 80, car moins gourmands en puissance de calcul. Ils sont aujourd’hui peu en vue mais permettent de facilement garder le contrôle sur le type d’analyse que l’on souhaite effectuer. Au niveau Business cela permet dans de nombreux cas d’obtenir des résultats probants, en couplant un système expert à une simple régression linéaire.

Règle 3 : le jugement humain reste imbattable

La plus simple des méthodes reste de ne pas retirer en totalité l’expertise humaine de la décision. Cela se traduit par des méthodes de contrôle qualité des résultats d’algorithme, similaires aux contrôles qualité effectués sur des chaînes automatisées en industrie. Dans le cadre de chatbots basés sur de l’IA, ceux-ci peuvent traiter rapidement plus de 90% des cas. Mais il est judicieux qu’un téléconseiller reprenne la main en cas de demandes complexes ou ambiguës. La méthode est simple à mettre en place, et permet d’éviter toute réponse erronée ou impliquant des biais.

Le sujet reste néanmoins complexe à traiter. Il est crucial d’être méthodique quand on manipule les données car il est difficile de savoir si on est en train d’effacer un biais ou d’en introduire d’autres. Les solutions d’Intelligence Artificielle doivent intégrer les aspects sociaux, sociétaux et environnementaux, c’est en tout cas un prérequis dans nos travaux chez Keley.

Sources :

Gender Bias in Artificial Intelligence: The Need for Diversity and Gender Theory in Machine Learning - Susan Leavy - University College Dublin (lien)

Intelligence Artificielle et Sexisme - Politiqu'Elles (lien)

Google : un outil pour combattre le racisme et le sexisme des IA – Bastien L (lien)

Facebook adopte de nouvelles règles pour lutter contre les biais sexistes et racistes des IA – Nelly Lesage (lien)

Keley est un partenaire de co-création parmi les meilleurs acteurs du marché, notamment via son expertise des parcours clients.

Yann Ruello

Content Innovation Director, chez Orange

Louis Olive
Louis Olive

Ancien Consultant

Passionné par l'innovation et l'utilisation de la données, Louis a notamment travaillé pour Renault, Orange, Système U et la Maif.

Envie de partager cet article ?
Button Text
UN PROJET DE TRANSFORMATION DIGITALE ?

Il est temps de se rencontrer ! Il vous suffit de remplir ce formulaire pour nous contacter.

La collecte des informations demandées est nécessaire au traitement de votre demande par Keley, unique entité habilitée au traitement. Elle vous permettra en premier lieu de recevoir une réponse à ce message. En cas de contact ultérieur de la part de Keley, votre consentement sera au préalable recueilli. Vous disposez d’un droit d’accès, de rectification, d’opposition et de suppression des données vous concernant. Pour l'exercer, merci de nous en faire la demande par email à l’adresse communication@keley.com.

Pictogramme blanc et jaune d'une enveloppe

Comment pouvons-nous vous aider ?

Merci pour votre message !
Oops ! On dirait qu'il y a eu un problème...

La collecte des informations demandées est nécessaire au traitement de votre demande par Keley, unique entité habilitée au traitement. Elle vous permettra en premier lieu de recevoir une réponse à ce message. En cas de contact ultérieur de la part de Keley, votre consentement sera au préalable recueilli. Vous disposez d’un droit d’accès, de rectification, d’opposition et de suppression des données vous concernant. Pour l'exercer, merci de nous en faire la demande par email à l’adresse communication@keley-consulting.com.