Sciences sans conscience…

Apprentissage automatique.

Les algorithmes ne nous comprennent pas vraiment.

1 MINCOURRIER INTERNATIONAL (PARIS)

Non seulement les algorithmes perpétuent nos propres préjugés, mais en plus la façon dont ils sont “entraînés” ne garantit pas leur bon fonctionnement dans “la vraie vie”.

Le générateur de texte GPT-3 a beau rédiger des articles clairs et argumentés, avec un rendement à faire pâlir de jalousie le plus prolifique des blogueurs, il n’est pas, pour autant, emblématique de ce que promet l’intelligence artificielle (IA). Même si elle fait continuellement des progrès, elle n’est pas encore complètement au point, en particulier lorsqu’il s’agit de prendre de “bonnes” décisions pour les humains.À lire aussi:À la une de l’hebdo. Algorithmes : ils prédisent notre avenir

D’abord, les données utilisées pour former l’IA ne font que refléter et perpétuer nos préjugés et les lacunes des organisations existantes. Mais aussi, note le Boston Globe :

même en l’absence d’un biais de classe ou racial systématique, les algorithmes pourraient avoir du mal à faire des prédictions même vaguement exactes sur l’avenir des individus.”

C’est en tout cas ce que mettent en évidence plusieurs publications scientifiques. La plus récente, réalisée par 40 chercheurs de différents services de Google, pointe une cause de l’échec des modèles d’apprentissage automatique : la “sous-spécification”, un problème connu dans les statistiques, où les effets observés peuvent avoir de nombreuses causes possibles. Autrement dit, le processus utilisé pour créer la plupart de ces modèles ne garantit pas qu’ils fonctionnent dans le monde réel. Et c’est un problème.

Faites-le savoir :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *