· Lucie Dewaleyne · Blog · 3 min read
Fei-Fei Li : L’IA éthique, ce n’est pas de la morale, c’est du design

En 2009, alors que le monde de la tech ne jure que par la puissance de calcul, une professeure de Princeton (puis Stanford) fait un pari insensé et tout le monde lui dit qu’elle perd son temps.
Son nom est Fei-Fei Li. Son projet : ImageNet.
En effet, à l’époque, les ordinateurs étaient incapables de distinguer un chat d’un chien. L’approche dominante des ingénieurs consistait à écrire de meilleurs algorithmes. Mais Fei-Fei Li, elle, a eu l’intuition inverse : le problème ne vient pas du code, mais des données.
Elle a alors passé trois ans à compiler une base de données colossale de 14 millions d’images annotées à la main. Grâce à ce travail titanesque cela a permis aux machines d’apprendre à « voir », déclenchant la révolution du Deep Learning en 2012.
Le revers de la médaille : quand la machine apprend nos défauts
Mais pourtant dans son livre The Worlds I See (2023), Fei-Fei Li raconte comment le rêve technologique s’est heurté à une réalité sociologique brutale.
En effet, en nourrissant les machines avec des images du monde réel, nous leur avons aussi donné nos préjugés. Les algorithmes ne sont pas neutres ; ils sont des miroirs.
L’exemple le plus frappant est sûrment le fait que moteurs de recherche et bases de données entraînés sur ces volumes massifs ont commencé à faire des associations inquiétantes. Par exemple : une étude célèbre a montré que la recherche du terme « CEO » (PDG) renvoyait plus de 90 % d’images d’hommes blancs, invisibilisant totalement les femmes dirigeantes mais aussi les personnes racisé.e.s.
La machine n’était pas « sexiste » par intention, elle l’était par apprentissage statistique. Elle avait appris que « autorité = masculin ».
L’IA centrée sur l’humain (Human-Centered AI)
Face à ce constat, Fei-Fei Li n’a pas rejeté la technologie. Elle a fondé le Stanford Institute for Human-Centered AI (HAI) avec une conviction radicale :
« Il n’y a rien d’artificiel dans l’Intelligence Artificielle. Elle est inspirée par les gens, créée par les gens et, surtout, elle impacte les gens. »
Pour elle, l’éthique ne consiste pas à brider l’IA, mais à lui donner du contexte. Une « IA éthique » est une machine capable de comprendre l’intention humaine derrière la donnée brute. Si on ne code pas cette nuance, « c’est l’IA qui décidera à notre place », reproduisant aveuglément les biais du passé au lieu d’aider à construire le futur.
L’éthique est un « Design challenge »
Pourquoi est-ce crucial pour une entreprise aujourd’hui ?
Parce que l’éthique dans la tech (AI Ethics) n’est pas un simple « sticker » moral ou une contrainte légale. C’est un défi de conception.
Construire une solution performante – que ce soit un algorithme de recommandation pour un e-commerce ou un outil de tri de CV – demande une vigilance sur la qualité des données (« Data Engineering »). Une IA biaisée est une IA qui fonctionne mal, qui exclut des clients potentiels et qui prend de mauvaises décisions.
