What Can Machines learning do ? Analyse de Jean-Charles Vernhet, Membre du collège des Experts

Jean-Charles Vernhet, chirurgien cardiaque, membre du Collège des Experts, revient sur l’article« What Can Machines learning do ? »

La connaissance du cadre technique du Machine Learning (ML) peut aider à comprendre les possibles dérives ou effets paradoxaux de l’Intelligence Artificielle (IA) triomphante.

L’article « What can machine learning do ?”, publié dans Science en 2018 par Bryjolfsson et Mitchell (et repris sur le blog d’Irving Wladawsky-Berger) offre une revue des prérequis et  des cibles idéales du ML.

Le domaine de la santé, particulièrement pionnier dans le développement de l’IA, fournit en illustration de nombreux exemples concrets des effets précieux, ou parfois plus surprenants, de l’usage de ce nouvel outil.

Les deux conditions primordiales du ML sont la qualité des données (définition et précision des items, clarté des combinaisons archivées…) et la taille de la base de données (l’algorithme s’améliorant littéralement « à l’infini » avec chaque nouvelle donnée).

Sans surprise, dans le domaine du diagnostic par imagerie, les résultats sont remarquables : après compilation d’innombrables scanners ou IRM, l’identification des caractéristiques de telle ou telle tumeur s’est déjà révélée plus sûre par une IA que par un panel de radiologues expérimentés.

Il en va tout autrement dans le domaine du diagnostic ou du suivi « clinique », qui impose d’avoir préalablement reformaté des données non normées (interrogatoire, symptômes, et leurs circonstances) afin de les rendre « comestibles » par l’IA. Cette « réduction du réel à une succession de data » (Gaspar Koenig) est une tâche strictement humaine, et ingrate. La fiabilité de la collecte des données n’est donc pas assurée. Par ailleurs, souvent dédiée aux plus jeunes collaborateurs, elle se révèle chronophage, et déresponsabilisante, modèle de destruction de sens et de temps efficace auprès des patients : tout ceci définit hélas un « bullshit job », selon le néologisme célèbre de l’anthropologue David Graeber.

Un point important pour Bryjolfsson et Mitchell, par ailleurs convaincus des performances actuelles et à venir du ML dans le domaine « intellectuel », est leur grande réserve quant à la dextérité physique des futurs robots, tout particulièrement dans les environnements non rigides, instables ou déstructurés tels que le corps humain.

Rappelons que le « robot » chirurgical Da Vinci n’en est pas un : il s’agit d’une télécommande très perfectionnée, dotée d’un outil de stabilisation. Les logiciels « intelligents » type Visible Patient modélisent en 3D un organe et une tumeur en pré-opératoire : ils permettent de préparer (simuler) l’intervention, d’accompagner le repérage per-opératoire des lésions par le chirurgien, mais ne « décident » et ne maîtrisent aucun geste.

A la vérité, comme l’observe Yuval Noah Harari dans un récent entretien au « Monde », le travail de chirurgien ou d’infirmière, qui réclame beaucoup de compétences manuelles, semble « moins menacé que celui de médecin, qui analyse les données, compare, cherche un modèle, ce que fera exactement, en mieux, l’IA ».

Le développement de l’IA pourrait ainsi paradoxalement préserver des métiers manuels, et faire disparaître des métiers « cérébraux », peu à peu piégés par l’usage immodéré de « prothèses intellectuelles ».

Une caractéristique majeure du ML est de produire des corrélations (déductions) à partir de données simples et claires (même multiples), et sans que soit requise, du moins à ce jour, une explicitation de la chaîne logique utilisée (à distinguer d’ailleurs de notre « raisonnement »). Et un parasitage par des critères hétérogènes ou complexes (par exemple, le « bon sens », ou l’irruption d’une donnée/question « de dernière minute ») lui est néfaste.

On comprend donc que le champ des travaux prédictifs, même multifactoriels, soit particulièrement prometteur : modélisation et cinétique prévisionnelle des tumeurs cancéreuses, profilage du risque de complications rétiniennes ou rénales d’un diabète sucré, médecine personnalisée à partir de la compilation de millions de séquences ADN…

Les algorithmes décisionnels « thérapeutiques » semblent plus incertains.

Très fiables – et même établis – en endocrinologie, où les données sont des dosages hormonaux parfaitement « normés », ils sont plus discutables en cardiologie, par exemple, où tout repose sur des paramètres mesurés « opérateur-dépendants ». Les algorithmes deviendraient carrément farceurs en chirurgie d’urgence, surtout en situation périlleuse – par exemple la hiérarchisation de blessés en chirurgie de guerre, qui procède parfois du pur instinct.

Quant à la recherche, elle relègue l’IA au rang – décisif – de l’outil : un formidable outil de compilation, gain de temps, machine à découvrir des corrélations, mais incapable d’intuition, ou de folie…

A vrai dire, et tout particulièrement en médecine, l’IA ne tombe pas du ciel. Elle n’est que l’avatar le plus récent d’une technicisation du monde : normes, process, ont précédé l’IA et déjà fortement dégradé les relations humaines.

Pour autant, l’IA amène avec elle de nouveaux enjeux :

  • L’IA nous réserve quelques vraies surprises,
    paradoxales, dans la hiérarchie des tâches, et donc des responsabilités ;
  • L’IA, par son coût démesuré, est sans aucun
    doute un formidable cheval de Troie pour des intérêts industriels privés qui,
    sous prétexte de « partenariats », menacent directement
    l’indépendance et l’éthique – les médecins n’étant évidemment pas les seuls
    concernés ;
  • La mainmise prévisible de l’IA sur la part
    technicienne des métiers peut à contrario être une chance pour une
    survalorisation de l’intelligence émotionnelle, décisive pour l’avenir : pensons
    en médecine au « dispositif d’annonce » en cancérologie, à tous les
    soins de support, exclusivement humains, à l’accompagnement des futurs modes de
    reproduction.

Il est essentiel de démystifier l’IA. Préserver le statut de « machine » de l’IA relève de notre responsabilité : Joanna Bryson, de l’Université de Bath, n’a-t-elle pas démontré qu’un robot à l’allure humanoïde était plus susceptible de nous manipuler ? Il faut impérativement rendre explicite, et intelligible, la vraie nature, et le vrai fonctionnement, d’une intelligence artificielle. C’est tout l’enjeu, par exemple, de « l’IA explicable » (XAI – eXplainable Artificial Intelligence), récemment annoncée, loin de la médecine, comme l’un des outils de choix d’investissements par plusieurs groupes de gestion d’actifs.