Un algorithme ne pense pas. Il reproduit ce qu'on lui donne.

On prête volontiers à l'IA une forme de neutralité froide. Pas d'humeur, pas de fatigue, pas de préférence pour le candidat qui porte la même montre que soi. Sur le papier, c'est rassurant. Sauf que cette neutralité est un mirage, et un mirage assez pernicieux parce qu'il nous dispense de regarder ce qu'il y a derrière.

Un modèle d'IA apprend à partir de données. Si ces données reflètent vingt ans de décisions prises par des humains avec leurs angles morts, le modèle va capter ces patterns et les traiter comme des vérités. Il ne sait pas qu'un pattern est un biais. Il ne fait pas la différence entre une corrélation pertinente et un préjugé historique. Il optimise ce qu'on lui demande d'optimiser, point. La question qui mérite d'être posée, alors, ce n'est pas "mon IA est-elle biaisée". C'est plutôt "qu'est-ce que mes données disent de la façon dont ma boîte a fonctionné jusqu'ici".

Pour une entreprise de 15 ou 40 personnes en Suisse romande, le sujet semble lointain. On pense aux géants de la tech, aux scandales de reconnaissance faciale. Mais dès que tu utilises un outil qui trie des CV, segmente ta base clients ou priorise des relances commerciales, tu es concerné. L'OFS relevait en 2023 que 11% des entreprises suisses déclaraient utiliser l'IA. Ce chiffre a grimpé depuis. Et avec lui, le nombre de décisions déléguées à des systèmes dont personne n'a vérifié les hypothèses de départ.

Tes décisions RH passées nourrissent l'IA de demain

Imagine que tu alimentes un outil de tri de candidatures avec l'historique de tes recrutements sur cinq ans. L'outil va chercher des régularités. Si, pendant ces cinq ans, tu as systématiquement embauché des profils issus de la même école, du même canton, du même genre pour un poste donné, l'algorithme va considérer ça comme le profil idéal. Non pas parce que c'est vrai. Parce que c'est ce que tes données racontent.

Est-ce que ça fait de toi quelqu'un de mal intentionné? Évidemment non. Ça fait de toi un humain qui a pris des décisions dans un contexte donné, avec des biais cognitifs normaux. Le problème survient quand l'IA fige ces biais dans un système automatisé qui les applique à grande échelle, sans le filtre du doute. Un recruteur humain peut se dire "tiens, ce profil atypique mérite un entretien". Un algorithme non supervisé ne se pose pas cette question. J'ai déjà abordé les limites éthiques de l'IA en recrutement, et plus j'observe le sujet, plus je trouve que la vraie difficulté n'est pas technique. Elle est dans notre rapport à la délégation de jugement.

Quand tu confies une décision à une machine, tu ne supprimes pas la subjectivité. Tu la déplaces. Elle passe de ta tête au jeu de données. Et là, elle devient invisible, ce qui est peut-être pire que quand elle était visible et assumée.

Le coût silencieux d'une IA qui confirme tes certitudes

Un biais algorithmique ne se manifeste pas avec un message d'erreur. Il se manifeste par des résultats qui semblent raisonnables, parce qu'ils confirment ce que tu pensais déjà. C'est le piège. Ton outil de scoring commercial écarte systématiquement les prospects d'un secteur que tu n'as jamais bien servi? Tu ne le remarques pas, parce que tu n'avais pas ces clients de toute façon. L'algorithme valide ton angle mort et le transforme en règle de gestion.

Fais le calcul toi-même. Prends ton chiffre d'affaires annuel. Estime le pourcentage de prospects que ton système de priorisation écarte avant même qu'un humain ne les voie. Si c'est 30%, et que parmi ces 30% il y a ne serait-ce que 5% de clients potentiels mal classés, multiplie ta valeur moyenne par client par ce volume. Le montant qui apparaît, c'est le coût d'opportunité de ne pas avoir questionné les critères de ton algorithme. Ce n'est pas un chiffre que je t'impose. C'est le tien, dérivé de ta réalité.

Et ça va au-delà du commercial. Les décisions de pricing, l'allocation de ressources internes, le ciblage marketing. Chaque fois qu'un outil automatisé fait un tri, il applique une logique héritée. La question à se poser n'est pas "est-ce que mon IA se trompe" mais "est-ce que je serais à l'aise si je voyais ses critères de tri affichés sur un mur de la salle de pause".

Gros plan sur des documents d'entreprise manuscrits en cours de numérisation, illustrant comment les décisions RH passées nourrissent l'IA.

La LPD t'oblige à regarder sous le capot, et c'est tant mieux

Depuis septembre 2023, la Loi sur la Protection des Données révisée impose des exigences de transparence sur le traitement des données personnelles en Suisse. Le Préposé fédéral à la protection des données et à la transparence (PFPDT) insiste sur la traçabilité des décisions automatisées. En clair, si ton IA prend ou influence une décision qui affecte une personne, tu dois être capable d'expliquer sur quels critères elle s'appuie.

Pour beaucoup de dirigeants, la LPD est perçue comme une contrainte administrative de plus. Mais vue sous un autre angle, elle force exactement la démarche qui manque. Ouvrir la boîte noire. Regarder quelles données alimentent tes outils. Vérifier que les critères de tri ne contiennent pas de variables proxy qui discriminent indirectement. Si tu t'intéresses à la façon dont la confidentialité des données et l'hébergement en Suisse interagissent avec l'IA, tu verras que le cadre légal suisse pousse vers plus de rigueur, pas moins.

Ce n'est pas un hasard si les entreprises qui prennent la LPD au sérieux finissent par mieux comprendre leurs propres processus. Documenter ce que fait ton IA, c'est documenter ce que fait ta boîte. Et parfois, ce miroir révèle des choses qu'on n'avait pas envie de voir, mais qu'il vaut mieux corriger avant qu'un collaborateur ou un client ne les pointe du doigt.

L'humain reste le seul capable de douter de la machine

Je n'ai pas de recette en cinq étapes à te donner pour éliminer les biais de tes outils IA. Ce serait mentir que de prétendre que ça existe. Les biais sont un reflet de la complexité humaine, et aucun audit ponctuel ne les supprime définitivement. Ce que j'observe, en revanche, c'est que les dirigeants qui gardent un regard critique sur les sorties de leurs outils automatisés prennent de meilleures décisions que ceux qui font confiance aveuglément.

Ça implique quelques réflexes. Regarder régulièrement les résultats que ton IA produit, pas seulement les KPI globaux mais les cas individuels. Te demander si un résultat te surprend, et si l'absence de surprise n'est pas elle-même suspecte. Impliquer des profils différents dans la supervision, parce qu'un biais que tu ne vois pas, quelqu'un d'autre dans ton équipe le verra peut-être. Et accepter que l'IA n'est pas là pour remplacer ton jugement mais pour te donner plus de matière à juger.

Si tu veux comprendre où en est ta boîte sur ces questions, un regard honnête sur ce que l'IA fait vraiment dans les entreprises romandes peut aider à calibrer tes attentes. L'IA est un outil remarquable quand elle augmente ta capacité de réflexion. Elle devient dangereuse quand elle la remplace. Et la frontière entre les deux, c'est toi qui la traces, pas l'algorithme.