Newsletter - Juillet 2020 - Le biais de l'IA
Newsletter juillet 2020
Le mouvement Black Lives Matter, ravivé par la mort tragique de George Floyd, s'est répandu dans le monde entier. Cette tragédie a mis sous une lumière crue les discriminations qui minent encore nos sociétés. La technologie et l'intelligence artificielle en particulier n'échappent pas à cet examen de conscience que nous devons mener collectivement. Conçues par des humains, elles ont tendance à reproduire leurs préjugés. Cela soulève de nombreuses questions sur la façon dont l'IA est conçue, par qui, et comment nous pouvons garantir son éthique.
En 2018, Joy Buolamwini, chercheuse noire au MIT, s'étonne qu'un logiciel de reconnaissance faciale avec lequel elle travaille reconnaisse les visages de ses amis mais pas le sien. Lorsqu'elle met un masque blanc, l'algorithme l'identifie immédiatement. Une expérience qui prompts l'a amenée à faire sa thèse sur le sujet.
<iframe width="560" height="315" src="https://www.youtube.com/embed/TWWsW1w-BVo" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
Après avoir testé les systèmes de reconnaissance faciale d'IBM, de Microsoft et de Face ++, les résultats sont clairs : ils reconnaissent tous plus d'hommes que de femmes et sont plus précis sur les peaux claires que sur les peaux foncées. Les exemples de discrimination que ce type de problème engendre ne manquent pas :
Un humain trop humain
On a trop souvent tendance à concevoir l'IA comme une entité surgie ex nihilo. Or, elle n'apprend qu'à partir des images et des informations qui lui sont fournies. En d'autres termes, elle n'apprend qu'à l'image de ceux qui la conçoivent. À ce titre, il n'est pas étonnant qu'elle conduise à des prises de décision racistes et sexistes, lorsque les algorithmes qui la composent sont très majoritairement développés par des hommes blancs."Les algorithmes ne sont pas dotés de conscience, mais construits par des personnes", explique Mouhamadou Moustapha Cissé, responsable du premier centre de recherche sur l'intelligence artificielle en Afrique. "Ce sont, en partie, les préjugés de ces personnes qui affectent la façon dont les algorithmes fonctionnent".
Défauts intrinsèques
Dans une tribune, Nelly Chatue-Diop et Soumia Malinbaum, respectivement Chief Data Officer Betclic Group et vice-présidente Business Development Keyrus, soulignent trois autres faiblesses techniques dans la manière dont ces algorithmes sont conçus :
Sensibilisation
Ces dernières années, ces questions ont fait l'objet d'une prise de conscience croissante :
Oui, nous pouvons
Une évolution vers le mieux est possible. "Constatant des différences stigmatisantes dans les traductions de Google Translate dans certaines langues, Google a veillé à générer des traductions sexuées pour toutes les phrases dont le modèle original ne proposait qu'une version masculine. Des indicateurs ont été mis en place pour mesurer les progrès et réduire ce biais de plus de 90% dans les traductions du hongrois, du finnois, du persan et du turc vers l'anglais. Le nouveau modèle est d'autant plus pertinent et comprend désormais que dans ces langues " docteur " et " ingénieur " peuvent être féminins ! ", se réjouissent Nelly Chatue-Diop et Soumia Malinbaum.
C'est plus que jamais un enjeu majeur, car l'IA s'immisce de plus en plus dans les moindres interstices de notre quotidien. A nous de la rendre à l'image de la société que nous voulons construire.
Isahit : l'éthique au cœur
Collaborant presque exclusivement avec des jeunes femmes noires issues de pays en développement, isahit contribue pleinement au développement d'une IA plus éthique et à l'image d'une société dans son ensemble, respectueuse de toute sa diversité. En annotant et en supervisant des algorithmes d'apprentissage automatique pour nos clients, ces femmes travaillent chaque jour à éviter les biais qu'ils pourraient générer. L'enjeu n'est pas seulement éthique, car la diversité est l'une des clés essentielles de la précision et de l'efficacité de l'IA. Très concrètement :
C'est grâce à la diversité de sa communauté qu'isahit peut garantir à ses clients des données précises et valides, spécifiques et contextualisées.
" Chez isahit, nous accordons également beaucoup d'importance à la formation de notre communauté. Notre objectif est d'aider ces femmes à atteindre leurs objectifs professionnels tout en leur donnant les clés pour prendre pleinement part à la révolution numérique en cours.
Isabelle Mashola, PDG d'isahit
Lisez la newsletter dans votre navigateur web
Nous disposons d'une large gamme de solutions et d'outils qui vous aideront à former vos algorithmes. Cliquez ci-dessous pour en savoir plus !