Accueil / Intelligence artificielle générale : entre fantasmes et réalité

Intelligence artificielle générale : entre fantasmes et réalité

Publié en ligne le 21 septembre 2025 - Intelligence Artificielle -
vitesse 80% 100% 120%

L’intelligence artificielle (IA) est omniprésente dans le débat public et dans les médias. Les impressionnantes performances des IA génératives (qui génèrent des textes, des images ou des vidéos en réponse à une requête) ainsi que leur mise à disposition du grand public à partir de 2022 suscitent des réactions très contrastées. Il est vrai que les performances sont impressionnantes. Pour Andrew Ng, un des scientifiques les plus reconnus dans la discipline, « l’IA est la nouvelle électricité. Elle transformera tous les secteurs et créera une valeur économique considérable » [1]. Pour Sam Altman, patron d’OpenAI, l’entreprise qui a mis au point ChatGPT, « l’humanité est sur le point de construire une super-intelligence numérique » [2]. La plupart des dirigeants des grandes entreprises de la Tech prédisent une « intelligence artificielle générale » (AGI pour Artificial General Intelligence en anglais) d’ici cinq à dix ans [3]. Mais pour certains, c’est un grand risque existentiel qui nous menacerait. Des intentions malveillantes sont déjà prêtées aux systèmes existants : « Chantage, mensonge et manipulation : quand l’IA se joue de l’homme et inquiète les chercheurs » (Nouvel Obs, 29 juin 2025), « Cette IA scientifique a modifié son propre code pour échapper au contrôle des humains qui l’utilisent ! » (Futura-Sciences, 23 août 2024), etc. Pour Elon Musk, « le danger de l’IA est bien plus grand que celui des ogives nucléaires » [4]. Des « pauses » dans les recherches en intelligence artificielle sont également demandées, parfois par ceux qui continuent d’y travailler activement [5].

Qu’en est-il vraiment ? Peut-on aujourd’hui parler d’IA générales ? Les risques existentiels sont-ils crédibles ? Brandir cette menace ne risque-t-il pas de masquer la vraie question de la régulation des systèmes existants ? Qu’en est-il des potentialités ?

Une machine peut-elle être « intelligente » ?

Savoir si les machines peuvent être intelligentes est un débat qui ne date pas d’aujourd’hui. Dès les tout débuts de l’informatique, en 1950, alors que les premiers ordinateurs voyaient à peine le jour dans les laboratoires militaires, Alan Turing (1912-1954), qui a contribué à poser les bases théoriques de l’informatique, précisait les limites de cette discussion : « La question “Les machines peuvent-elles penser ?” est à mon avis trop dénuée de sens pour être débattue » [6]. Si, pour lui, il ne faisait aucun doute « qu’à la fin de ce siècle, l’usage des mots et l’opinion générale des personnes instruites auront tellement changé que l’on pourra parler de machines pensantes sans risquer d’être contredit », le terme intelligence était bien trop imprécis pour permettre une discussion solide. Il en est de même de concepts tels que « conscience de soi », « émotions », « sentiments », etc. Ces mots ont un sens qui peut être précisé quand on s’intéresse à un contexte particulier, par exemple, au comportement des humains ou à l’évaluation de leurs capacités cognitives. Mais les reprendre dans le cas des ordinateurs conduit à des débats assez rapidement vides de sens, faute d’accord sur ce dont on parle et du fait d’une vision anthropomorphe que suggèrent nécessairement ces termes.

Peut-on définir l’intelligence d’une machine ?

On a parfois décrit l’intelligence artificielle comme la capacité donnée aux ordinateurs d’exécuter des tâches qui, chez l’humain, supposent de l’intelligence. De nombreuses activités supposées concrétiser cette intelligence humaine ont alors été énumérées : jouer à des jeux de stratégie (le jeu d’échecs a longtemps constitué un objet de recherche important en IA, car supposé nécessiter anticipation, raisonnement et planification), résoudre des problèmes mathématiques ou logiques, comprendre le langage naturel (dialoguer, traduire, résumer…), identifier des objets, des visages, apprendre et s’adapter, composer de la musique, écrire un texte, générer une image, etc. Outre le côté circulaire de la définition proposée (« des activités qui, chez l’humain, exigent de l’intelligence »), on peut rappeler l’objection attribuée au mathématicien John von Neumann (1903-1957), pionnier de l’informatique et l’un des fondateurs de l’architecture des ordinateurs dont les principes inspirent encore les machines actuelles : « Donnez-moi un problème que vous pensez qu’une machine ne peut pas résoudre, et je vous montrerai comment écrire un programme qui le résout » [7]. C’était en 1948, alors que le nombre d’ordinateurs dans le monde se comptait sur à peine les doigts d’une main. Dans les années 1970, Larry Tesler, l’un des pionniers de l’interaction homme-machine, avait résumé ce scepticisme devant la possibilité de créer des systèmes d’intelligence artificielle par cette formule : « l’intelligence est tout ce que les machines n’ont pas encore fait » [8]. Pendant longtemps, dès qu’une tâche jugée spécifique à l’Homme était réalisée par une machine, elle cessait d’être considérée comme une preuve d’intelligence. Ainsi, quand en 1997, un programme d’intelligence artificielle a battu le champion du monde d’échecs, personne n’y a vu une preuve définitive de l’intelligence des machines [9].

Le test de Turing : une manière élégante de contourner le problème

Alan Turing a proposé une manière élégante de contourner cette absence de définition précise pour aborder le problème des « machines pensantes ». Plutôt que chercher à valider des critères d’intelligence dans l’absolu, ou des signes d’authentique émotion ou de conscience de soi, il a conçu ce que l’on appelle aujourd’hui le « test de Turing », qualifié par lui de « jeu de l’imitation ». Si, lors d’un dialogue entre un humain et une machine, l’humain ne peut identifier qu’il s’adresse à une machine, alors cette dernière peut-elle être qualifiée d’intelligente ? Ce test a par la suite fait l’objet de tentatives de définitions plus formelles (protocole, modalité des interactions, durée des dialogues, critères d’évaluation, etc.) [10]. L’argument de fond est que, ce qui compte dans l’interaction, ce n’est pas le substrat matériel qui permet le dialogue, mais la nature même des échanges.

Le test de Turing est intéressant car il remplace une définition sur la base de critères explicites d’intelligence par une expérience concrète qui, par ailleurs, écarte la prise en compte du substrat de l’intelligence (cerveau humain ou composants électroniques) qui pourrait brouiller le jugement. Aujourd’hui, on considère souvent que les IA génératives réussissent le test de Turing (voir par exemple [11]) sans que soit emportée la conviction d’être en présence de machines intelligentes.

En effet, la plupart des chercheurs s’accordent à dire que les simples capacités de dialogue ou l’aptitude à manier le langage ne constituent pas des critères suffisants d’intelligence. Le philosophe John Searle énonçait déjà ceci il y a quarante ans : « en un mot, l’esprit ne se réduit pas à une syntaxe ; il possède aussi une sémantique » [12]. L’intelligence que nous croyons voir dans les performances d’une machine est celle que nous projetons en observant ses actions. J. Searle parlera par la suite plus généralement du problème de « l’autre esprit » (other minds) qui nous fait supposer l’existence d’états mentaux chez autrui par analogie avec soi-même [13] : « Tout comme j’observe dans mon cas une corrélation entre le stimulus d’entrée, l’état mental intérieur et le comportement de sortie, de même, dans votre cas, puisque je peux observer le stimulus d’entrée et le comportement de sortie, j’en déduis par analogie que vous devez avoir un état mental intérieur correspondant au mien ».

De nombreuses autres questions relatives à l’intelligence des machines ont été soulevées. Peut-elle se réduire à « résoudre des problèmes » [14] ? Faut-il mesurer l’intelligence des machines à l’aune de l’intelligence humaine ? Cette dernière question est d’autant plus pertinente que le cerveau humain est loin d’être un modèle de raisonnement logique : il est soumis à de nombreux biais, commet des erreurs de raisonnement et possède de nombreuses limitations.

Ainsi, il est probable que la discussion sur l’intelligence des machines, si elle en reste à ce terme d’intelligence, risque de rester stérile, faute de définition précise et consensuelle qui puisse s’appliquer de façon cohérente aux machines et aux humains.

Des IA spécialisées parfois très performantes

Les pionniers de la discipline ont d’emblée inscrit leurs travaux dans la perspective générale que toute caractéristique de l’intelligence peut en principe être décrite « avec une telle précision qu’une machine peut être conçue pour la simuler » (conférence de Dartmouth de 1956) [15]. Jusqu’à très récemment, les travaux en intelligence artificielle ont essentiellement consisté à mettre au point des programmes spécialisés visant à résoudre un problème particulier ou à simuler une fonction très précise du raisonnement humain. C’est ce que J. Searle a qualifié d’« IA faible », par opposition à une « IA forte », ou IA générale, projet qu’il jugeait irréalisable [16].

Il en est ainsi de l’intelligence artificielle dite symbolique qui a dominé la discipline jusqu’à la fin des années 1990. Cette approche est fondée sur une représentation explicite des connaissances utilisées sous forme de symboles informatiques (d’où son nom) accessibles à la compréhension humaine [17]. Elle met en général en œuvre un raisonnement logique et déductif. L’IA symbolique a obtenu des résultats parfois spectaculaires. Ainsi, des « systèmes experts » ont-ils atteint des performances dignes des meilleurs professionnels sur des tâches précises, parfois hautement spécialisées (par exemple le choix d’antimicrobiens dans le cas d’une méningite en 1979 [18] ou la localisation de gisements miniers à partir de cartes géologiques en 1982 [19]). La très médiatique victoire du programme Deep Blue d’IBM contre le champion du monde d’échecs Garry Kasparov en 1997 est une autre illustration des performances de l’IA symbolique, alliée ici à de très importantes capacités de calcul qui permettaient d’évaluer des centaines de millions de situations par seconde. Certaines de ses techniques ont sédimenté dans des outils informatiques classiques (programmation par contrainte pour résoudre des problèmes d’optimisation combinatoire par exemple).

Au tout début des années 2010, c’est l’approche dite connexionniste qui s’impose [20]. Ses premiers fondements remontent à 1943 avec la description d’un modèle mathématique très simplifié du neurone biologique [21], suivie en 1958 d’une première programmation d’un réseau de neurones. Comprenant quelques centaines de neurones connectés entre eux, ce réseau (le Perceptron) était capable de reconnaître des formes simples par classification à l’issue d’un entraînement supervisé sur des exemples de motifs. Malgré quelques belles réussites dans les années 1990 (reconnaissance de caractères manuscrits [22]), l’approche connexionniste n’a vraiment pu se développer que quand de gigantesques corpus de données sont devenus disponibles, et grâce à la capacité sans cesse croissante des ordinateurs et aux perfectionnements des algorithmes. On utilise également le terme d’apprentissage profond (deep learning) pour souligner que les réseaux de neurones utilisés sont complexes, avec de nombreuses couches interconnectées. Contrairement à l’IA symbolique qui manipule des connaissances et des concepts explicitement modélisés dans la machine, l’IA connexionniste apprend sur de vastes corpus de textes, d’images ou d’autres données, en ajustant progressivement les paramètres d’un réseau de neurones, sans produire de représentation claire et lisible de ce qu’elle a acquis (chacun des composants du réseau a peu ou pas de sens pris isolément [23]). Ces systèmes se sont rapidement montrés capables de traduire des textes d’une langue à une autre de manière bien plus efficace que l’approche symbolique, de reconnaître des images de manière plus fiable que les systèmes précédents. D’une façon générale, l’IA connexionniste pouvait être parfois meilleure que les humains dans leur domaine restreint de compétence. Mais chacun des programmes restait spécialisé, restreint à son strict domaine d’expertise. Les réalisations de l’IA symbolique relevaient toutes de l’« IA faible »

En 2017, les premiers systèmes capables de traiter des problèmes issus d’une grande variété de domaines font leur apparition avec les IA génératives dont l’agent conversationnel ChatGPT (2022) est l’un des représentants les plus connus. Ces réalisations ont été rendues possibles en particulier grâce à une avancée technologique majeure dans le domaine de l’IA connexionniste, celle des « transformers » [24], permettant d’analyser de grandes quantités de textes en repérant les relations entre les mots dans une phrase ou un paragraphe 1. Traduire un texte, résoudre un problème mathématique, jouer aux échecs ou encore proposer une recette de cuisine semblent à la portée d’un même et unique programme. Peut-on néanmoins parler d’intelligence artificielle forte, d’intelligence artificielle générale ?

Vers une intelligence artificielle générale ?

Ces agents conversationnels entraînés sur de gigantesques corpus de données sont capables de traiter des problèmes très différents sur la base d’une simple requête de l’utilisateur (le « prompt »). Ils semblent parfois rivaliser avec des spécialistes sur quantité de tâches spécifiques : classification d’images, compréhension de textes (du niveau intermédiaire jusqu’au doctorat), maîtrise des langues naturelles, exercices d’olympiades de mathématique [25], programmation [26], etc. Certains de ces systèmes pourraient réussir l’examen pour devenir avocat [27]. Fondés sur des modèles génériques communs (les grands modèles de langage ou LLM) et entraînés sur des corpus de données extraordinairement importants, sont-ils, de par leur polyvalence, le prélude à une intelligence artificielle générale [28] ?

Des IA polyvalentes, très performantes mais qui rencontrent des limitations

Ce terme d’intelligence artificielle générale pourrait apparaître comme une variante imprécise au-dessus d’un concept lui-même imprécis car il reprend le mot « intelligence ». Et de fait, les définitions qui sont données oscillent entre une approche pragmatique centrée sur les performances dans un nombre croissant de tâches utiles et une vision globale, ambitieuse et très spéculative visant l’équivalence ou le dépassement des capacités humaines [29].

Les travaux relevant d’une approche pragmatique soulignent généralement plusieurs critères qu’un système doit remplir pour être considéré comme une intelligence artificielle générale : (1) la capacité de poursuivre une diversité d’objectifs et de réaliser un large éventail de tâches dans des contextes et environnements variés ; (2) l’aptitude à traiter des situations imprévues ou sensiblement différentes de celles envisagées par ses concepteurs et (3) la faculté de généraliser les connaissances acquises, afin de les transférer d’un problème ou d’un domaine à un autre [30].

Les programmes comme ChatGPT (OpenAI), Le Chat (Mistral), Gemini (Google) et bien d’autres, aussi appelés « robots conversationnels » (ou chatbot en anglais) relèvent-ils de cette intelligence artificielle générale ? S’en rapprochent-ils ? Ils possèdent bien des performances parfois surprenantes et sont capables de traiter des problèmes variés issus de domaines très différents. Les objections sont nombreuses. Citons-en quelques-unes parmi bien d’autres [31].

La compréhension du monde physique

Tout d’abord, les IA génératives actuelles n’ont pas de compréhension directe du monde réel. Elles ne font qu’élaborer des corrélations à partir des gigantesques quantités de données textuelles qui leur sont soumises lors de leur apprentissage. Elles « savent » que « les pierres tombent », qu’« une ombre apparaît quand on cache la lumière » ou que « le feu peut brûler » parce que ces phrases apparaissent dans les textes sur lesquels elles ont fait leur apprentissage. Pas parce qu’elles l’auraient expérimenté. Elles n’interagissent pas avec le monde qui les entoure, elles n’ont ni perception ni action dans l’environnement, ce qui empêche l’ancrage sémantique nécessaire à une véritable compréhension. C’est là une limitation majeure quand il s’agit de conduire des raisonnements causaux ou de faire des anticipations sur les conséquences d’une action [32]. Yann Le Cun, lauréat 2018 du prestigieux prix Turing, affirme ainsi que, sans cette compréhension, « les véhicules autonomes ne sont toujours pas sûrs sur la voie publique 2, les robots domestiques peinent à effectuer les tâches ménagères les plus élémentaires et nos assistants intelligents ne peuvent accomplir que des tâches basiques » [33].

Les hallucinations

Ensuite, ces systèmes sont sujets à des « hallucinations ». Les hallucinations peuvent être définies comme la génération d’un texte 3 jugé faux ou absurde par les observateurs, au regard de la requête [34]. En réalité, les IA génératives n’ont pas de compréhension du « vrai » et du « faux ». Les grands modèles de langage ont parfois été qualifiés de « perroquets stochastiques » [35] : ils génèrent du texte en recombinant des formes linguistiques identifiées lors de leur apprentissage, mais sans en comprendre le sens. Le qualificatif stochastique souligne que cette sorte d’imitation se fait selon des probabilités statistiques et non en fonction d’un raisonnement ou d’une intention. Les hallucinations ne sont pas des « bugs » du logiciel : l’IA génère des phrases en réorganisant les régularités statistiques présentes dans les données d’apprentissage. Ces productions sont plausibles du point de vue des données, mais elles n’ont pas de raison intrinsèque d’être vraies. Même entraînées avec des données parfaitement exactes, les hallucinations existeront toujours. On peut juste espérer perfectionner ces systèmes pour diminuer leur fréquence. Reste que ce phénomène pose un problème majeur d’utilisation, particulièrement dans des applications sensibles, mais également dans des usages courants comme l’enseignement ou la recherche d’informations, si aucun regard critique n’est exercé. La question n’est pas forcément que l’IA puisse « se tromper » (après tout, l’être humain se trompe parfois), mais qu’elle peut se tromper sur des éléments qui semblent triviaux à l’humain, et de de manière difficilement prévisible, posant ainsi un problème majeure de confiance et de fiabilité.

Les difficultés à s’adapter à un nouveau domaine

Une autre limite des systèmes d’IA générative actuels, qui empêche de les qualifier d’intelligence artificielle générale, est leur faible capacité à transférer des compétences d’un domaine à un autre [36]. Pour obtenir de bonnes performances dans un contexte particulier, il faut souvent les spécialiser. Et dès que l’on change de contexte, il faut généralement reprendre le logiciel et le réadapter.

De nombreux obstacles loin d’être surmontés

Ce ne sont là que quelques-unes des limitations qui font l’objet d’importants travaux de recherche. Les discussions sont animées entre experts sur les directions à prendre pour les résoudre. Pour certains, il suffirait d’une qualité accrue des corpus de données d’apprentissage, d’une augmentation du nombre de paramètres des réseaux de neurones ou encore d’une sophistication des architectures algorithmiques. Pour d’autres, la simple amélioration des grands modèles de langage ne suffira pas [37]. Y. Le Cun compare les systèmes fondés sur les seuls grands modèles de langage au « système-1 » de la pensée proposé par le psychologue et économiste Daniel Kahneman [38] : rapides, automatiques, intuitifs, mais parfois peu fiables. Il invite alors à développer un équivalent du « système-2 » : plus lent, mais capable de réflexion et d’analyse. Ces systèmes devront être capables de planifier, de décomposer des problèmes et posséder un « modèle du monde ». Des travaux sur la compréhension des vidéos et la génération de vidéos sont également une des pistes étudiées [39]. La complémentarité entre approches connexionnistes et symboliques est également mise en avant pour offrir « le meilleur des deux mondes » [40].

L’IA va-t-elle prendre le pouvoir ?

Une vision plus radicale de l’intelligence artificielle générale consiste à prédire une explosion du niveau des intelligences artificielles dans un avenir qui pourrait être proche. L’idée sous-jacente est qu’à partir d’un certain niveau de compétence, en particulier en termes d’auto-apprentissage, une sorte d’emballement se produirait où l’IA acquerrait par elle-même, à un rythme sans cesse croissant, de nombreuses compétences et connaissances.

Basculement vers une intelligence d’un ordre supérieur ?

Ray Kurzweil, informaticien et prospectiviste, a popularisé à ce propos le terme de « singularité ». Il affirmait dans un ouvrage écrit en 2005 [41] que, d’ici 2029, les ordinateurs atteindront une intelligence comparable à celle de l’être humain. Il prédisait ensuite qu’en 2045 surviendrait la « singularité » où la fusion de la biologie et de l’informatique donnerait naissance à une intelligence d’un ordre supérieur, dépassant largement les capacités humaines et transformant radicalement la condition humaine. En 2024, il maintenait ses prédictions et confirmait la mise au point d’une IA générale en 2029, « capable de faire tout ce que n’importe quel humain peut faire, mais à un niveau supérieur » [42]. Dans le même temps, l’entrepreneur Elon Musk déclarait que « dans un an » (donc en 2025), une IA générale «  plus intelligente que le plus intelligent des humains » serait mise au point [43]. Pour certains, ce n’est pas une menace, bien au contraire. Le propos de Ray Kurzweil s’inscrit dans l’approche transhumaniste qui voit dans le mariage de la technologie et de l’être humain une voie de progrès majeure pour l’humanité.

Un risque existentiel ?

Mais des discours apocalyptiques accompagnent également ces prédictions. Dès 2014, le physicien Stephen Hawking déclarait que « le développement d’une intelligence artificielle complète pourrait signifier la fin de la race humaine » [44]. En 2023, des entrepreneurs, dirigeants d’entreprises de l’IA et des scientifiques de premier plan signaient un appel comportant une seule phrase : « Réduire le risque d’extinction lié à l’intelligence artificielle devrait constituer une priorité mondiale, au même titre que les pandémies ou la menace nucléaire » [45].

Ce genre de prédictions dignes de romans de science-fiction sont légion. Elles sont purement spéculatives mais occupent une grande place médiatique et donnent lieu à d’innombrables polémiques. En tout état de cause, aucun scénario concret n’est donné pour étayer ce risque existentiel. Il faudrait déjà que ces IA disposent de moyens d’agir sur le monde extérieur. Or, la combinaison de l’intelligence artificielle et de la robotique n’en est qu’à ses débuts. Elle pourrait constituer un des enjeux de la décennie à venir [46]. Mais, à moins d’humains inconscients qui, par exemple, connecteraient directement une intelligence artificielle mal maîtrisée à une arme nucléaire, on voit mal aujourd’hui par quel enchaînement d’actions le risque existentiel se matérialiserait. C’est moins l’intelligence artificielle qui est à redouter que son usage par les humains. En tout état de cause, nous sommes encore très loin d’IA que l’on nous présente comme dotées d’intentions, qui mentiraient, qui ruseraient, ou qui voudraient s’affranchir de l’humain. Et nous n’avons pas encore atteint une intelligence artificielle générale.

Les vrais enjeux masqués par des prédictions sans fondement

Comme pour toute technologie, il y a bien des risques avec les développements de l’intelligence artificielle, d’autant plus qu’il s’agit de ce qu’on appelle une « technologie transverse », c’est-à-dire avec des applications dans tous les domaines de la société (comme le sont l’énergie, le numérique en général, les télécommunications) [47]. Il est donc nécessaire de les examiner et de chercher à s’en prémunir. Mais paradoxalement, agiter des risques qui sont sans fondement aujourd’hui peut contribuer à obscurcir les enjeux actuels autour de la régulation et l’usage des IA.

Les systèmes d’IA entrent massivement dans les entreprises, dans les laboratoires de recherche, dans l’enseignement, mais également dans l’espace domestique (OpenAI indique que 70 % des usages de ChatGPT se fait dans un cadre non professionnel [48]). Il est encore trop tôt pour juger de l’impact réel qu’ils vont avoir, au-delà des annonces des différents acteurs. Ce sont potentiellement des outils extraordinairement puissants. Ils peuvent être utilisés à bon escient, mal utilisés, détournés, ou se révéler inutilisables dans certains contextes.

Un récent rapport rédigé par 96 experts issus de trente pays et d’organisations comme l’OCDE, l’Union européenne et l’ONU, fait le point sur les risques que représentent ces IA à usage général [49]. Il distingue trois grandes catégories de risques : usages malveillants (désinformation, cyberattaques, armes), dysfonctionnements (erreurs, biais, perte de contrôle) et risques « systémiques » (emploi, concentration du marché, vie privée, environnement, droits d’auteur). L’analyse identifie plusieurs trajectoires d’évolution et souligne la complexité de la gestion des risques en mettant en avant un certain nombre de facteurs : une technologie qui avance très rapidement et qui peut brusquement révéler des problèmes majeurs mal identifiés, le « fossé informationnel » qui sépare ce que les entreprises d’IA savent de leurs systèmes et ce qu’en savent les gouvernements ou les chercheurs non industriels, ou encore la pression concurrentielle ou géopolitique qui peut conduire entreprises et gouvernements à négliger la gestion des risques.

La régulation de futures intelligences artificielles générales suppose, tout comme celles d’aujourd’hui, une analyse des risques, mais aussi des bénéfices et des formidables potentialités offertes. Elle nécessite également une juste appréciation de l’état de développement de cette technologie [50].


Références


1|Artificial intelligence : the new electricity”, Wipo Magazine, 13 juin 2019.
2| Altman S, “The Gentle Singularity”, sur le blog de Swam Altman, 10 juin 2025.
3|Demis Hassabis Is Preparing for AI’s Endgame”, Time, 16 avril 2025.
4|This Is How Stressed Elon Musk Is About Artificial Intelligence”, Science Alert, 12 mars 2018.
5|Pause Giant AI Experiments : An Open Letter”, sur le site de Future of Life, 22 mars 2023.
6| Turing A, “Computing Machinery and Intelligence”, Mind, 1950, 59 :433-60.
7| Jaynes ET, Probability Theory – The Logic of Science, Cambridge University Press, 2003.
8| Tesler L, “CV : Adages and Coinages”, sur www.nomodes.com (consulté le 29 août 2025).
9| Krivine JP, note de lecture sur le livre de Gladine-Bozio, La leçon d’échecs - Petite histoire de l’IA, HumenSciences, 2025.
10| Pinar Saygin A et al., “Turing Test : 50 Years Later”, Minds and Machines 10, 463–518, 2000.
11| Jones et al. “People cannot distinguish GPT-4 from a human in a Turing test”, FAccT ‘25 : Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency, 23 juin 2025.
12| Searle J, Minds brains and science, Harvard University Press, 1984.
13| Searle J, Mind - A Brief Introduction, Oxford University Press, 2004
14| Andler D, Intelligence artificielle, intelligence humaine : la double énigme, Gallimard, 2023.
15| McCarthy et al., “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence”, 31 août 1955, reproduit dans AI Magazine, vol.27-4, 2006.
16| Searle J, “Minds, brains, and programs”, dans The Behavioral and Brain Sciences, 1980, Cambridge University Press.
17| Garnelo M et Shanahan M, “Reconciling deep learning with symbolic artificial intelligence : representing objects and relations”, Current Opinion in Behavioral Sciences, volume 29, 2019.
18| Yu VL et al., “Antimicrobial Selection by a Computer : A Blinded Evaluation by Infectious Diseases Experts”, JAMA, 1979 ;242(12).
19| Campbell AN et al., “Recognition of a Hidden Mineral Deposit by an Artificial Intelligence Program”, Science
vol. 217- 4563, 3 septembre 1982.
20| A neural networks deep dive - IBM Developer
21| W. S. McCulloch and W. Pitts. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5:115-133, 1943.
22| Le Cun Y et al., “Handwritten digit recognition with a back-propagation network”, Advances in neural information processing systems 2, juin 1990.
23| Garnelo M et Shanahan M, “Reconciling deep learning with symbolic artificial intelligence : representing objects and relations”, Current Opinion in Behavioral Sciences, volume 29, 2019.
24| Vaswani A, “Attention Is All You Need”, 31st Conference on Neural Information Processing Systems (NIPS), 2017.
25|The AI Index 2025 Annual Report”, Stanford University, Institute for Human-Centered AI, 2025.
26| Yeadon W et al., “A comparison of human, GPT-3.5, and GPT-4 performance in a university-level coding course”, Sci Rep 14, 2024.
27| Katz DM et al., “GPT-4 passes the bar exam”, Philos Trans A Math Phys Eng Sci., avril 2024.
28| Bubeck S et al., “Sparks of Artificial General Intelligence : Early experiments with GPT-4”, prépublicayioon sur ArXiv, mars 2023
29| Mitchell M, “Debates on the nature of artificial general intelligence”, vol 383, Science, 21 mars 2024.
30| Goertzel B, “Generative AI vs. AGI : The Cognitive Strengths and Weaknesses of Modern LLMs”, prepublication sur ArXiv, 19 septembre 2023.
31| Manduchi L, “On the Challenges and Opportunities in Generative AI”, prepublication sur ArXiv, 6 mars 2025.
32| Le Cun Y, “Objective-Driven AI Towards AI systems that can learn, remember, reason, plan, have common sense, yet are steerable and safe”, Collège de France, 9 février 2024.
33|Meta’s AI chief : LLMs will never reach human-level intelligence”, The Next Web (TNW), 10 avril 2024.
34| Ji Z, “Survey of Hallucination in Natural Language Generation”, ACM Computing Surveys, volume 55-12, 3 mars 2023.
35| Bender EM, “On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ?”, FAccT ’21 : Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 1er mars 2021.
36| Li JL, “A Comprehensive Review of Machine Learning Advances on Data Change : A Cross-Field Perspective”, prépublication sur ArXiv, 20 février 2024.
37| « Les LLMs ne sont pas l’avenir de l’IA selon Yann Lecun de Meta », La revue du digital, 24 mai 2024
38| Kahneman D, Système 1 / Système 2 : Les deux vitesses de la pensée, Flammarion 2012 (pour la traduction française).
39|V-JEPA : The next step toward Yann LeCun’s vision of advanced machine intelligence (AMI)”, sur ai.meta.com, 15 février 2024.
40| Garnelo M et Shanahan M, “Reconciling deep learning with symbolic artificial intelligence : representing objects and relations”, Current Opinion in Behavioral Sciences, volume 29, 2019
41| Kurzweil R, The Singularity Is Near : When Humans Transcend Biology, 2005
42|AI scientist Ray Kurzweil : ‘We are going to expand intelligence a millionfold by 2045’”, The Guardian, 29 juin 2024.
43|Tesla’s Musk predicts AI will be smarter than the smartest human next year”, Agence Reuters, 8 avril 2024.
44|Stephen Hawking warns artificial intelligence could end mankind”, BBC, 2 décembre 2014.
45|Statement on AI Risk”, Center for AI safety, mai 2023 (consulté le 11 septembre 2025).
46|The global market for humanoid robots could reach $38 billion by 2035”, Foldman Sachs, 27 février 2024.
47|What is transversal technologies”, 14 décembre 2022, sur technologies.org
48|How people are using ChatGPT”, OpenAI, 15 septembre 2025
49|International AI Safety Report 2025”, sur le site du gouvernement du Royaume-Uni (www.gov.uk), 29 janvier 2025.
50| Abendroth Dias K et al., Generative AI Outlook Report - Exploring the Intersection of Technology, Society and Policy, JRC, Publications Office of the European Union, 2025

1 Les IA génératives appliquées au texte manipulent en réalité non pas des mots, mais des « token », que l’on peut apparenter à des syllabes ou des fractions de mots.

2 Des véhicules autonomes circulent avec dans des contextes très spécifiques : certaines villes extrêmement cartographiées et avec un superviseur à distance.

3 Les IA génératives d’image ou de vidéo peuvent aussi « halluciner.


Partager cet article


L'auteur

Jean-Paul Krivine

Rédacteur en chef de la revue Science et pseudo-sciences (depuis 2001). Président de l’Afis en 2019 et 2020. (…)

Plus d'informations

Intelligence Artificielle

L’intelligence artificielle (IA) suscite curiosité, enthousiasme et inquiétude. Elle est présente dans d’innombrables applications, ses prouesses font régulièrement la une des journaux. Dans le même temps, des déclarations médiatisées mettent en garde contre des machines qui pourraient prendre le pouvoir et menacer la place de l’Homme ou, a minima, porter atteinte à certaines de nos libertés. Les performances impressionnantes observées aujourd’hui sont-elles annonciatrices de comportements qui vont vite nous échapper ?