algorithmes

Intelligence Artificielle : Comprendre les algorithmes pour mieux se les approprier

Dans nos précédentes publications, nous avons insisté sur l’importance de la qualité des données pour faire parler les algorithmes. Comme le précisait la CNIL dans son livre blanc en 2017 : « L’algorithme sans données est aveugle. Les données sans algorithmes sont muettes ».

Mais quid des modèles d’analyse ?

Qu’attendons-nous de l’IA ?

Les algorithmes sont-ils sans failles si les données sont de qualités ?

Raisonnent-ils comme les humains ?

Nous vous proposons au travers de cet article de mieux vous approprier les algorithmes en vous expliquant leur manière de fonctionner.

Une ruée vers l’IA impulsée par le désir humain…

La génération actuelle d’actifs a grandi entre les mythes de Star Wars, Terminator, Star Trek et plus récemment l’univers ultra-connecté et limite transhumaniste d’Iron Man. Dès lors qu’il s’agit d’IA, il est ainsi courant de tomber dans le piège de l’over-expectation, phénomène sociotechnique se traduit par des attentes démesurées et déconnectées avec la réalité des capacités de la machine.

Cette déconnexion entre les attentes et la réalité de l’IA a donné naissance à des phases de « AI winter » durant lesquelles le doute a pesé parmi les chercheurs et les utilisateurs sur les capacités des algorithmes. Au sein de certaines organisations cette incertitude a créé une obsession autour de l’intelligence artificielle et un fort sentiment de FoMO (Fear of Missing Out).

Cette expression anglaise traduit le sentiment d’anxiété qui habite une personne lorsqu’elle risque de passer à côté de quelque chose. On la retrouve notamment dans l’utilisation exagérée des réseaux sociaux, la connexion permanente à l’information ou l’addiction au smartphone.

La société Ionos spécialisée dans l’hébergement du nom de domaine souligne qu’il s’agit d’un syndrome « étroitement lié à la numérisation de notre vie quotidienne ». Il s’agit d’un phénomène qui s’observe tout particulièrement dans un contexte où le cours du Bitcoin passe de 8k€ à 25k€ en l’espace de quelques mois seulement…

…malgré des contraintes majeures d’implémentation

À l’origine des premières appréhensions qui justifient le « AI Winter » se trouvaient notamment les contraintes techniques des machines. Pour rappel, en 1965 le magazine Electronics publiait ce que nous connaissons aujourd’hui comme étant la loi de Moore. À cette époque, la loi de Moore n’était qu’une hypothèse basée sur une extrapolation qui sera vérifiée a posteriori. A l’heure de l’ordinateur quantique, il n’existe plus de doutes sur les capacités de calculs.

Les limites de l’IA sont davantage subtiles et liées à sa conception : discrimination, black box et vallée dérangeante.

Discrimination

L’algorithme est à l’image de son créateur et du contexte dans lequel il est né.

Comme le souligne G.Monsellato (Global Lead Client Service Partner @Deloitte) « Si l’intelligence artificielle nous permet d’accéder et d’analyser une masse de données immenses issues de situations passées, il n’en demeure pas moins qu’il sera toujours nécessaire de les interpréter à la lumière de contextes nouveaux ». Les briques de codes utilisées pour concevoir les modèles de machine learning dépendent de la connaissance de son développeur et du contexte dans lequel il s’inscrit.

Par exemple, la mise à disposition de bibliothèques prêtes à l’emploi comme Tensor Flow ou Scikit Learn permettent de s’émanciper de certaines contraintes de programmation marquant une rupture avec les algorithmes codés il y a plus de 10 ans. Ce phénomène de discrimination des algorithmes est au cœur du débat autour du dilemme du Tramway. En effet, face à une situation critique, c’est selon la manière dont le concepteur a pensé l’arbre décisionnel que la machine prendra sa décision.

Dans l’expérience de pensée du Tramway, se pose la question du « cout d’opportunité » lorsque des vies humaines sont en jeu. Au sens large il s’agit de la valeur à laquelle nous renonçons lorsque nous effectuons un choix. Cette valeur peut s’apprécier tant en volume monétaire qu’humaine ou écologique. Ce dilemme trouve une multitude de déclinaisons selon le domaine d’application (voiture autonome, analyse de risque crédit, justice pénale prédictive, etc.).

Black-box

L’explicabilité est un enjeu qui croit à mesure que les algorithmes se complexifient. Même si le machine learning permet de mettre en exergue des corrélations qui ne seraient pas venues spontanément à l’esprit d’un expert, son raisonnement n’est pas toujours explicable. Le graphique ci-dessous illustre que plus les prédictions sont correctes, plus il est difficile de les expliquer. Dans les métiers d’expertise où le jugement professionnel est au cœur de la prestation réalisée, ce phénomène de « black-box » constitue un frein majeur à son implémentation si l’utilisateur n’a pas la capacité de justifier ses choix.

Les algorithmes peuvent être compris pour être mieux appréhendés.

Vallée dérangeante

Même avec toute la meilleure technologie du monde, les outils d’analyses et de prédictions n’auront de succès que s’ils sont acceptés par leurs utilisateurs. L’acceptation du produit reste la condition indispensable à la démocratisation des algorithmes.

Or, avec des indices de performance avoisinant les 99,99%, les algorithmes peuvent parfois « déranger » les professionnels. En effet, dans les 0,01% des cas où la machine pourra retourner une erreur, le résultat pouvant sembler tellement aberrant, il instaurera un climat de scepticisme entre l’homme et la machine. Attribuée au roboticien Miro Masahiro, la théorie de la « Vallée dérangeante » exprime le fait que plus un robot ressemble à l’Homme, plus l’Homme sera apeuré, voire horrifié par le moindre défaut physique du robot. Transposé au domaine de l’IA, ce phénomène explique le scepticisme d’un client, qui s’étonne de ce qu’un outil puisse faire une erreur qui serait celle d’un collaborateur junior dans 1 cas alors qu’il a été infaillible sur les 999 autres cas.

En définitive, l’IA c’est un peu comme le dernier opus d’une Saga mythique de Science-Fiction :

  • [🤩] On en attend beaucoup (over-expectation),
  • [😰] On va le voir quoiqu’il arrive (FoMO)
  • [🤨] On est conscient des choix scénaristiques de bienséance (discrimination)
  • [🤔] On se demande parfois ce qu’il s’est passé dans la tête du réalisateur (black-box),
  • [😱] On s’offusque au moindre faux raccord (vallée dérangeante),
  • [🤤] Mais on reste fan quand même.

D’ailleurs, en parlant d’IA, nous en avons une et elle est plutôt à la hauteur de ce que peuvent en attendre les experts-comptables. Devenez fan de l’IA en essayant celle de Chaintrust et vous n’en aurez plus jamais peur… au contraire, elle devrait vous rassurer !

écrit par Léopold Wenger