Interview de Georges Nahon – Analyste Conseil
Ancien DG pendant quinze ans d’orange Silicon Valley à San Francisco, créateur de l’Institut Orange

 

Est-ce que la contribution de l’intelligence artificielle (IA) à la bataille contre le Covid‑19 a été significative ?

La perception est que l’IA a été « prise de cours » par les caractéristiques inédites de la pandémie : pas de précédent connu et documenté, énorme rapidité de propagation, diversité des cas de contamination et désaccord sur la façon de s’y attaquer. Il y a eu une importante déception à la hauteur des attentes et de la confiance dans la puissance de l’IA.

Certes, il n’y a pas eu d’exploit de l’IA pour combattre le virus comme on en rêvait. Et le fait est que l’IA n’a pas pu ou su diagnostiquer le Covid-19. Ni aider les autorités publiques à se préparer pour combattre et vaincre ce virus. Même les BigTech américaines n’ont pas pu, semble-t-il, utiliser leur supériorité dans l’analyse des données massives par l’IA pour mieux aider à combattre le virus.

Ce n’est pas seulement le problème de l’IA contre le virus. En effet, il faut se souvenir que le virus a également déstabilisé d’autres applications de l’IA comme le contrôle et le filtrage des contenus sur les réseaux sociaux, la logistique du commerce, l’anti-fraude, les systèmes de prédiction des comportements en ligne. Autant de domaines où les comportements inhabituels des populations pendant les confinements ont perturbé les algorithmes entraînés, eux, sur des données basées sur des réactions habituelles et prédictibles des individus… Quand tout va bien.

 

Pourquoi donc l’IA n’a-t-elle pas pu aider à combattre et vaincre le virus ?

 Le covid-19 n’était pas une simple « grippette » que les algorithmes de l’IA pouvaient « voir venir » simplement. Les défis du Covid-19 lui-même n’étaient pas connus, donc envisageables par les scientifiques et donc il n’a pas été demandé à l’IA de travailler à élaborer des stratégies, d’évitement, de défense ou d’éradication. Il aurait fallu être en capacité de poser les bonnes questions à l’IA et orienter des recherches et des développements vers la détection d’évènements rares, brutaux et planétaires comme les pandémies.

On peut remarquer que même les très nombreux comités d’experts internationaux sur l’IA n’ont pas pu en cinq ou six mois réorienter certains travaux de R&D pour lutter de façon décisive contre le Covid-19. Mais il en a été de même, semble-t-il, pour les experts de la santé dans le monde qui n’ont pas non plus pu s’entendre sur une stratégie commune d’actions radicales basée sur une expérience passée suffisamment exploitable. C’était sûrement trop tard. Surtout, aucun précédent utile n’a pu être utilisé et mobilisé dans les deux cas pour mettre au point une vraie percée. Faut-il penser que ce qui préexistait était insuffisant, imprécis ou inadéquat ? C’est le cas pour l’IA face à la pandémie.

Ce qui s’est passé, c’est que la pandémie a embrouillé et désorienté les algorithmes d’IA. L’IA est en effet une affaire d’algorithmes et de grands échantillons de données pertinentes pour le sujet envisagé. Et les comportements pendant la pandémie étaient inédits. On a surestimé – en dehors des cercles scientifiques – la capacité de l’IA à nous préparer à affronter les impacts du Covid-19, alors qu’elle n’avait pas pu apprendre quoi que ce soit du passé de virus qui n’existait pas.

 

L’IA échappera-t-elle à la nécessité, elle aussi, de se réinventer ?

 L’IA est une technologie qui a un énorme potentiel, mais il faut en connaître les limites pour modérer les attentes. Il y a des questions difficiles notamment sur la fiabilité de ses algorithmes, leur sécurité, et sur l’éthique de leurs « raisonnements ». Avec le temps, les experts de l’IA dans le monde mettent au point de nouvelles approches très prometteuses.

L’un des problèmes de l’IA est que ses modèles algorithmiques se dégradent avec le temps. Il faut donc anticiper et se prémunir contre la dégradation des modèles d’IA.Les données utilisées pendant la période d’apprentissage de l’IA évoluent et peuvent s’éloigner des données d’origine. Les résultats des modèles IA vont se dégrader avec le temps et il peut y avoir des incidents ou pire.  De plus, on ne pourra pas comprendre pourquoi des problèmes ont surgi, car il y a cette opacité du fonctionnement occulte des algorithmes : on ne sait pas ce qui se passe « sous le capot » des algorithmes. Et en période de crise, comme celle de la pandémie où tout va très vite, la non-pertinence d’une IA peut être accélérée et augmentée significativement. Il est sûrement utile d’afficher un certain scepticisme constructif, car l’IA est un animal bien plus compliqué que le logiciel. Surtout dans sa dimension sociétale.

 

A l’inverse, le développement de l’IA n’oblige-t-elle pas l’être humain à réinventer, à repenser sa propre intelligence ?

 Le Covid-19 est un évènement rare. Des évènements rares, voire exceptionnels et « inconcevables » pour les esprits rationnels sont probablement ceux pour lesquels la coopération étroite homme/machine est essentielle. En effet, d’un côté les humains peuvent détecter ou pressentir des changements rapides et s’y adapter plus « naturellement » que l’intelligence « artificielle ». Cependant, les experts disent que le raisonnement humain n’est pas vraiment à l’aise longtemps avec l’exponentialité de ces changements, c’est-à-dire le fait que ces changements augmentent rapidement et « dans des proportions grandissantes, au-delà de tout ce qui était attendu ».[1] Et de leur côté, les algorithmes de l’IA ne voient pas le monde comme les humains et surtout ne le « comprennent » pas (encore). Ce sera éventuellement la tâche de l’Intelligence artificielle forte ou en anglais, artificial general intelligence (AGI), mais il semble qu’il faille attendre encore plusieurs années.

Il aurait fallu que l’IA et l’apprentissage automatique (ou ML comme dans Machine Learning) s’entraînent sur des données antérieures qui n’existaient pas sur ce virus qui est nouveau.  L’analyse de données massives et le software peuvent prédire des tendances et sonner l’alarme, mais les caractéristiques spéciales du coronavirus, notamment la rapidité et sa forme de sa propagation sont très difficiles à anticiper sans informations riches sur des expériences passées analogues.

L’inédit n’est pas la tasse de thé de l’IA. L’IA est un environnement probabiliste et comme le disait un célèbre mathématicien « tous les modèles [probabilistes] sont faux mais certains sont utiles ». En effet, les modèles de prédictions peuvent ne pas marcher dans certaines circonstances, mais « avec un peu de chances moins que les humains ».

La partie sciences sociales de l’affaire Covid-19 est la plus difficile. Nous ne devons pas nous leurrer, en pensant que nous pouvons modéliser et prédire le comportement humain.  Ce serait une manifestation d’orgueil déraisonnée. La raison en est que les individus ont leur libre-arbitre et prendront des décisions qui seront basées sur la réalisation de leurs objectifs individuels. Une machine peut être programmée pour « sauver des vies » et suggérer une mise en quarantaine. La machine n’a aucun moyen de connaître les préférences des individus. Sommes-nous sûrs que la survie soit plus importante que le plaisir par exemple ? Vous n’en sauriez rien en observant les sauteurs en parachutes et les fumeurs. Essayons de comprendre et de réfléchir aux limites et aux applications de l’IA. C’est un outil. Mais nous ne devons jamais être trop crédules ni arrogants pour suivre aveuglément ses recommandations et prescriptions. La physique, nous pouvons la modéliser et la reproduire de manière très cohérente, mais pas l’animal humain. Nous devons repenser notre dépendance et notre confiance dans les algorithmes et la façon dont nous les utilisons. Il est temps que les humains se rebiffent !

 

Qu’est-ce que cela aurait pu apporter si nous avions développé davantage l’IA avant la crise ?

Selon le World Economic Forum, l’IA aurait pu aider beaucoup plus dans la logistique hospitalière, en diagnostiquant les malades à haut risques respiratoires pour les orienter efficacement vers les hôpitaux adéquats en diminuant les risques de saturation. Tout se passe bien avec l’IA tant que rien d’anormal ne se produit. « L’IA identifie bien les corrélations invisibles dans beaucoup de cas et complémente les raisonnements humains, mais l’IA ne peut pas les remplacer en partie parce que les causalités sont comprises par l’humain mais pas par l’IA pour le moment ». Comme disent les américains, garbage in garbage out : si les données d’apprentissage sont mauvaises ou inadéquates, les résultats le seront aussi.

Mais il y a eu de nombreuses réalisations efficaces grâce à l’IA pour lutter contre la pandémie. On n’en parle pas vraiment, car il y en a beaucoup. Parle-t-on des prouesses des logiciels classiques dans les grands médias ?  Évidemment non. Dans les applications intéressantes de l’IA contre le virus, il y a eu ce projet qui a permis d’identifier des médicaments qui pourraient agir et quatre d’entre eux ont notamment été utilisés contre le Covid-19 sans relation avec cette étude, ce qui laisse pense que d’autres, identifiées par l’étude, pourront être testés et donner de bons résultats également. Mais cela reste spéculatif. Il faudra du temps et du recul pour « ajuster » l’efficacité de l’IA dans ce domaine de la lutte contre les pandémies.

Selon un article de la BBC, en règle générale, le développement d’un médicament prend environ cinq ans pour être mis à l’essai, mais un médicament conçu par l’IA ne prendrait que douze mois.

Une molécule médicamenteuse « inventée » par l’IA sera utilisée dans des essais humains dans une première mondiale pour l’apprentissage automatique (ou machine Learning) en médecine. « Il y a des milliards de décisions nécessaires pour trouver les bonnes molécules et c’est une décision énorme de concevoir précisément un médicament », a déclaré le professeur Hopkins. L’algorithme est agnostique, ce qui serait un gros « plus » par rapport au génie humain.

 

Le mot de la fin ?

 L’IA ne nous a pas sauvé du Covid-19 mais nous aidera à nous préparer à la prochaine pandémie prévisible ou inconnue.

[1] https://lexique.netmath.ca/exponentiel/