Avec l’essor de l’intelligence artificielle, le concept d’intelligence mériterait une définition précise qui faciliterait l’évaluation des progrès actuels en la matière. Cependant, nul n’est besoin de le définir plus avant pour convenir qu’une de ses finalités est de prédire le comportement des êtres et des choses que nous sommes et qui nous entourent. Pour y parvenir, encore faut-il d’abord comprendre ces systèmes, donc savoir les décrire, décrire ce qu’ils sont et leurs règles d’évolution, puis calculer.
Cela pose la question du langage et du calculateur. Alan Turing et Alonzo Church ont développé une thèse (en réalité 3 thèses proches) établissant que les machines de Turing et leurs langages étaient des calculateurs universels, c’est à dire dotés de la capacité de calculer le réel sous certaines conditions. Notamment, le réel doit être déterministe au sens de Laplace et ses règles d’évolution décrites, en détail, dans un langage mathématique. Cette thèse a été modernisée pour inclure l’informatique quantique.
Turing avait discuté de ces sujets dans son fameux article de 1950, dédié à l’intelligence Artificielle. Il avait notamment évalué la capacité du cerveau humain entre et bits, alors qu’on l’estime aujourd’hui à bytes, soit presque 10 fois plus. Un des arguments important de l’article est la difficulté voire l’impossibilité d’écrire des programmes d’une telle taille, l’horizon temporel érigeant une barrière difficilement franchissable. Ainsi, d’après Turing, une machine qui simule l’intelligence humaine ne peut donc être que produite par un apprentissage et pas par une programmation.
Il s’est basé sur ces considérations pour concevoir le test éponyme qui permet de distinguer un interlocuteur intelligent d’un simple automate. C’est aujourd’hui un critère discuté qui, en outre, est non constructif.
A ce stade, on peut aisément convenir que l’intelligence a à voir avec l’apprentissage et la calculabilité, et, ce faisant, considérer la contrainte du temps de calcul.
Kolmogorov définissait l’indicateur de la complexité d’un système comme la longueur de sa description minimale dans un langage Turing complet, c’est a dire pouvant être exécuté par une machine de Turing. Cela montre combien la complexité d’un système et le temps sont indissociablement liés.
Si l’on convient que l’ordinateur peut tout calculer, y compris l’état de l’univers dans un futur immédiat, il doit le faire dans un temps cohérent avec la période de validité du résultat attendu. Connaitre l’état de futur immédiat de l’univers, des années après ce futur, ne sert à rien. En tenant compte de cette contrainte, on peut raisonnablement penser que le meilleur calculateur de l’état futur immédiat de l’univers est probablement l’univers lui-même.
Vu sous cet angle, on peut comprend que l’information occupe une place centrale dans le triptyque matière-énergie-ondes des physiciens. Malgré tout, Gérard Berry nous enjoint de « changer nos schéma mentaux ».
Ces limites formidables ne s’appliquent pas seulement aux machines intelligentes, elles s’opposent aussi à notre calculateur biologique, le cerveau, et brutalement, elles nous ramènent à la question initiale, à propos de l’intelligence.
La calculabilité, telle que nous l’avons considérée, notamment s’agissant de l’univers et des lois physiques, consiste à employer une formulation mathématique, qui enchaîne les prémisses et les résultats. Or, ce que nous percevons usuellement du monde, de notre quotidien, ce sont des phénomènes d’émergence. C’est l’observation du comportement cohérent de la fourmilière alors que chaque fourmi a une conduite chaotique, c’est le constat que la pression d’un gaz s’accroît avec la température alors que ses molécules s’agitent de façon anarchique.
On plaque sur ces phénomènes d’émergence des modèles, ni tout à fait justes, ni tout à fait faux, puisqu’ils ne figurent que partiellement le réel. On les vérifie dans un domaine de validité, et on les ajuste au fur et à mesure de l’évolution de ce domaine.
La question centrale devient alors l’aptitude et la capacité à calculer de tels modèles imparfaits en tenant compte de leur part respective de vérité. Plus ils sont macroscopiques, plus ils sont faux, plus ils sont rapides à calculer, comme si la vérité se délectait de la compagnie du diable, dissimulé dans les détails. Soumise à cet exercice, la machine intelligente peut mener des calculs formidables sur des périmètres réduits, ou bien, grâce à l’apprentissage, résoudre des modèles macroscopiques, en estimant finement leurs pesants de vérité. Cependant, dès que les phénomènes touchent trop à l’improbable ou que l’horizon du temps compresse trop fortement les calculs, le calculateur biologique, qui mêle émotion et raison, demeure largement supérieur dans son aptitude à conjecturer. En dépit d’une vérité qui se dérobe sans cesse, le calculateur biologique à force de paris sur l’avenir et de conjectures, a développé une pensée collective, absolument fausse, mais contenant suffisamment de vérité pour avoir permis à l’espèce humaine de prospérer plus de 2 millions d’années.
C’est un résultat remarquable qui est situé loin devant les performances des machines intelligentes, qui, à écouter les spécialistes, comme Yann leCun, sont aujourd’hui bien inférieures aux performances du calculateur biologique d’un enfant de 2 ans.