En février 2026, la parution de “Faut-il encore décider ? La décision humaine à l’ère de l’intelligence artificielle” d’Éric Hazan et Olivier Sibony chez Flammarion marque un tournant dans le débat français sur l’autonomie décisionnelle. Ce livre arrive à un moment où l’Europe affine ses règles de régulation de l’IA et où la transparence des algorithmes devient une exigence démocratique.

Les auteurs

Éric Hazan, ancien Senior Partner chez McKinsey & Company jusqu’en 2025, dirige désormais le fonds d’impact Ardabelle Capital. Il enseigne la stratégie numérique et l’IA à HEC et à Sciences Po. Olivier Sibony est professeur à HEC Paris depuis 2015 et Associate Fellow à Oxford. Co-auteur du bestseller “Noise” avec Daniel Kahneman et Cass Sunstein, il a contribué à formaliser le champ de la “stratégie comportementale”, explorant l’impact des biais cognitifs sur les décisions stratégiques.

L’essentiel

  • Le constat central : nous sommes entrés dans un monde où la machine peut prendre de meilleures décisions que nous dans des situations quotidiennes — diagnostic médical, recrutement, évaluation du risque de récidive
  • La référence historique : le travail pionnier de Paul Meehl en 1954 sur la supériorité de l’analyse statistique face au jugement des experts, validé par 70 ans de recherches
  • Trois territoires décisionnels : la délégation (l’IA décide), la co-décision (l’IA aide à structurer), et le refus conscient de déléguer même quand la machine est meilleure
  • L’enjeu politique : qui décide, au nom de qui, où cela, et selon quelles règles ?

La thèse centrale : cartographier l’autonomie décisionnelle

Hazan et Sibony analysent “les champs et les conditions dans lesquels la prise de décision peut être efficacement déléguée aux outils artificiellement intelligents”. Leur approche n’est ni technophile ni technophobe : “Il analyse, sans optimisme béat ni technophobie réflexe, ce que nous pouvons déléguer aux machines - et ce que nous devons impérativement préserver comme prérogative humaine”.

Hazan propose “une véritable cartographie des décisions. Plutôt que d’être pour ou contre l’IA, il propose d’identifier différents territoires : ceux où la délégation est déjà largement acceptée, ceux où l’incertitude domine, et ceux que la société peut juger non délégables”. Cette “géographie décisionnelle” constitue l’innovation conceptuelle majeure du livre.

La filiation intellectuelle de Meehl

Les auteurs s’appuient sur le travail fondateur de Paul Meehl, qui en 1954 “montrait comment l’analyse statistique de données objectives pouvait faire jeu égal avec le jugement des experts quand il convenait de décider d’un traitement médical, ou de remettre en liberté conditionnelle un prisonnier ou encore d’admettre des étudiants dans une université sélective”.

“Clinical versus Statistical Prediction” de Meehl établissait que les méthodes algorithmiques surpassent systématiquement le jugement clinique, une conclusion qui “a remarquablement bien résisté pendant un demi-siècle”. Cette thèse de 1954 constitue “l’une des premières œuvres théoriques ayant posé les bases de l’utilisation des statistiques et de la modélisation computationnelle dans la recherche en psychiatrie et en psychologie clinique”.

Les trois registres de la décision augmentée

Le livre développe une typologie opérationnelle : “La première est celle de la délégation : lorsque l’IA décide à notre place, à condition que la confiance soit construite à travers des processus d’évaluation, de test et d’audit. La seconde est celle de la co-décision : l’IA ne tranche pas, mais aide à cadrer un problème, générer des options, structurer un raisonnement. La troisième concerne les cas où l’on choisit consciemment de ne pas déléguer, même si la machine pourrait mieux faire”.

Cette grille se concrétise dans des exemples précis : “le trading algorithmique : des algorithmes prennent des millions de décisions par seconde, là où des humains intervenaient auparavant. La vitesse est telle qu’un ordinateur situé quelques mètres plus près d’un serveur de la Bourse peut offrir un avantage en nanosecondes”. Inversement, dans le recrutement, “l’IA ne doit pas décider à votre place. En revanche, elle peut devenir un partenaire de réflexion. Un bon outil LLM va vous challenger, poser des questions auxquelles vous n’aviez pas pensé, vous pousser à être plus rigoureux — comme le ferait un bon collègue. La codécision, c’est cela : une IA qui agit comme un sparring partner dans le processus de décision”.

Le paradoxe de l’autonomie dans la délégation

Le livre explore une tension fondamentale : “décider est une prérogative que nous associons à notre autonomie, à notre dignité, à notre rôle même, notamment professionnel. Cette capacité à décider, comme individu ou comme manager, est centrale dans notre identité. Donc lorsque l’IA décide à notre place, elle touche à quelque chose de fondamental, ce qui nous définit”.

Pourtant, “la question n’est pas de savoir s’il faut être pour ou contre l’IA, mais de déterminer où déléguer, où co-décider, et où refuser de déléguer. Et dans ce déplacement, une évidence s’impose : l’humain ne cesse pas de décider, il décide autrement”. Cette reformulation de l’autonomie constitue l’apport conceptuel le plus stimulant de l’ouvrage.

Les angles morts : la dimension anthropologique

Le livre reste marqué par ses auteurs, experts en stratégie d’entreprise et en sciences comportementales. S’ils évoquent “le risque grandit d’une technocratie algorithmique assise sur l’emploi d’outils dont la puissance et le fonctionnement demeurent opaques” et appellent à “une réinvention solidaire de la démocratie et de l’IA”, leur analyse reste centrée sur l’efficacité décisionnelle plutôt que sur les transformations anthropologiques profondes.

La question de la confiance, pourtant centrale dans la philosophie de Paul Ricœur (“la confiance ne repose pas sur une foi aveugle, mais sur une intelligibilité partagée des actions et de leurs raisons”), mériterait un développement plus approfondi dans le contexte des systèmes d’IA non certifiables. De même, l’impact sur la formation du jugement critique, enjeu majeur soulevé par d’autres penseurs français de l’IA, n’est qu’effleuré.

Pourquoi le lire

“Faut-il encore décider ?” s’adresse à tous ceux qui cherchent une grille de lecture opérationnelle face à l’IA décisionnelle. “Ceci n’est pas un livre sur l’IA. C’est un livre sur la décision”, préviennent les auteurs. Cette approche pragmatique constitue sa force : plutôt que de philosopher dans l’abstrait, Hazan et Sibony offrent des outils conceptuels pour naviguer dans un monde où “la frontière de l’efficacité avérée de l’IA se déplace sans cesse”.

Le livre enrichit le débat français sur l’éthique algorithmique en proposant une alternative au moralisme ambiant. Sa typologie des territoires décisionnels pourrait influencer la régulation européenne des algorithmes de décision, particulièrement dans les secteurs à haut risque identifiés par l’AI Act européen. Dans un pays où “la France est peut-être le seul pays à enseigner la philosophie au lycée”, cet ouvrage fait le pont entre réflexion critique et pragmatisme technologique.


Informations bibliographiques : - Titre : Faut-il encore décider ? La décision humaine à l’ère de l’intelligence artificielle - Auteurs : Éric Hazan et Olivier Sibony - Éditeur : Flammarion - Date de publication : 25 février 2026 - Pages : 240 pages

Sources