« Ce qui échappera aux systèmes de l’IA, c’est l’humanité. »
Entretien avec Daniel Andler, mathématicien et philosophe des sciences
DOSSIER INTELLIGENCE ARTIFICIELLE - Observateur attentif de l’intelligence artificielle depuis les années 1970, Daniel Andler, fondateur du département d’études cognitives de l’ENS en 2001, a beaucoup écrit sur l’intelligence artificielle (son dernier ouvrage « Intelligence artificielle, intelligence humaine : la double énigme » a été publié en 2023 aux éditions Gallimard).
À l’occasion du Sommet pour l'Action sur l'intelligence artificielle (IA) qui se tiendra en France les 10 et 11 février 2025 - et dont l’ENS accueillera le mardi 11 les « side events » dédiés à l’IA et la société – Daniel Andler, mathématicien et philosophe des sciences, nous éclaire sur les origines et les avancées de l’IA, en rappelant que même si l’intelligence artificielle ne cesse de progresser, il n’y a pas de raison de penser voir un jour un système dont l’intelligence serait comparable à celle des êtres humains.
![Daniel Andler © Francesca Mantovani](/sites/default/files/2025-01/daniel_andler-credit_francesca_mantovani_autorisation_accordee_sans_droits_2.png)
Qu’est-ce qui vous a amené à vous intéresser à l’IA ?
Daniel Andler : Au début des années 1970, l’IA en était à ses débuts, et soulevait la question de savoir si une machine peut penser. J’avais la conviction que ce n’est pas possible. N’était-ce pas évident ? En fait, je me suis rapidement aperçu qu’il n’était pas facile de trouver un argument décisif. C’est cette question, à cheval sur la logique (domaine dans lequel je préparais un doctorat à Berkeley) et sur la philosophie, qui m’a plongé dans l’IA. Je m’en suis éloigné pour m’intéresser aux sciences cognitives, une nouvelle approche interdisciplinaire des processus mentaux chez l’humain (les bases de l’intelligence humaine), approche qui incluait l’IA. Je suis revenu à l’IA lorsqu’elle a commencé à surmonter les impasses qu’elle avait rencontrées dans les années 1980.
Comment voyez-vous l’évolution de l’IA depuis les années 80 et comment voyez-vous son évolution dans les années à venir ? Que nous réserve-t-elle d’après vous ?
Daniel Andler : L’IA, née officiellement en 1956, avait une idée relativement précise de la manière dont elle allait s’y prendre pour rendre un ordinateur intelligent. Malgré des débuts intéressants, au bout d’une trentaine d’années il devint clair que l’entreprise s’enlisait. Ce fut le moment où une approche concurrente prit le relais. Sous le nom de connexionnisme, elle offrait à la fois une nouvelle perspective sur la cognition humaine, et une piste pour l’IA qui se révéla féconde. Il fallut cependant un autre quart de siècle pour qu’elle s’impose dans la profession, et encore quelques années pour qu’elle conquière sa notoriété actuelle, avec la mise sur le marché de ChatGPT en novembre 2022, suivie d’une prolifération de modèles aux propriétés étonnantes.
Il y autant de d’angoisses que d’enthousiasmes face à l’IA. Quelles sont les fausses croyances et les vraies possibilités de l’IA ?
Daniel Andler : L’IA d’aujourd’hui offre deux choses. La première est une foule de systèmes d’aide aux travaux intellectuels : bien utilisés, ils automatisent de multiples tâches, y compris complexes et difficiles, accomplies jusqu’à présent à la « main », c’est-à-dire par l’esprit humain. La seconde est la promesse de parvenir bientôt à la création d’un système aussi intelligent que l’être humain — ce qu’on appelle « intelligence générale artificielle ». Pour ma part, je suis certain que les outils d’aide aux travaux intellectuels vont continuer de s’améliorer, qu’ils vont devenir plus sûrs (ils sont encore aujourd’hui très imparfaits) et qu’ils vont transformer, plus ou moins profondément, nombre de professions et d’activités quotidiennes. En revanche je ne crois pas une minute que nous verrons bientôt, voire jamais, un système dont l’intelligence sera comparable à celle des êtres humains.
C’est la thèse que vous développez dans votre livre « Intelligence artificielle, intelligence humaine : la double énigme » publié en 2023. Vous convenez que l’intelligence artificielle ne cesse de progresser, mais sans que la distance entre la technologie et l’humain ne se réduise, peut-être même au contraire. N’y a-t-il pas là un paradoxe ?
Daniel Andler : Les systèmes d’IA ont pour fonction de résoudre des problèmes. Ils progressent au sens où les problèmes qu’ils résolvent sont de plus en plus difficiles (pour les humains). Mais pour nous humains, l’intelligence sert avant tout à faire face aux situations que nous rencontrons. Nous le faisons souvent en posant un problème, dont la solution, nous l’espérons, nous permettra de nous tirer le mieux possible de la situation considérée. Une fois le problème posé, mais pas avant, l’IA peut intervenir. De la situation au problème, non seulement il n’y a pas un unique chemin, mais il n’y en a parfois aucun. Avons-nous su formuler un bon problème, qui nous a permis de nous tirer d’affaire de manière satisfaisante ? Ce sont là des questions normatives qui relèvent d’un jugement d’intelligence comparable à un jugement éthique ou esthétique. L’IA n’a littéralement rien à faire avec tout cela.
Est-ce là que réside la différence fondamentale entre l’intelligence humaine et l’intelligence artificielle ?
Daniel Andler : Les situations que nous rencontrons nous concernent en tant que personnes ayant une histoire commençant à notre naissance (voire avant) et qui mène, nous le savons, à la mort. Dans toute situation nous avons un enjeu : à l’extrême, celui de survivre ; au quotidien, celui de nous en tirer au mieux. Notre histoire n’est pas une simple configuration d’événements physiques, nous la faisons au contact d’un monde auquel nous donnons, tant bien que mal, un sens. Ce monde est habité par des êtres humains, nos semblables, sans l’aide desquels nous ne deviendrions pas humains. On évoque souvent les émotions, la conscience comme ce qui manquerait « encore » aux machines, mais qu’on réussira tôt ou tard à leur donner. Je ne vois pas de raison de le penser. Émotions, conscience sont des attributs de la personne humaine (et dans une mesure moindre d’animaux non humains), d’êtres biologiques immergés dans une société de semblables. Tout cela est banal, mais passé presque complètement sous silence dans les débats autour de l’IA.
Qu’est-ce qui échappera selon vous à l’intelligence artificielle ?
Daniel Andler : Admettons que (contrairement à ma vision sceptique) l’on soit parvenu à créer non seulement des systèmes d’IA excellant dans la résolution de toutes les tâches intellectuelles, mais ayant une forme d’individualité tout en formant ensemble une société (quelque chose de ce genre — un simulacre — existe déjà, sous forme d’agents semblables aux personnages des jeux vidéo les plus avancés). On pourrait imaginer qu’en un sens ils habitent un monde, rencontrent des situations, veuillent s’en tirer au mieux, etc. (La ressemblance avec la science-fiction n’a rien de fortuit.) Ce qui échappera à l’intelligence de ces systèmes, c’est l’humanité. Le paradoxe ultime serait alors que cette super-IA nous semblerait encore plus éloignée de notre propre intelligence que l’IA d’aujourd’hui, si imparfaite qu’elle soit.
À propos de Daniel Andler Titulaire de doctorats de mathématiques de Berkeley et de Paris 7, spécialiste de théorie des modèles pendant la première partie de sa carrière, Daniel Andler a enseigné les mathématiques dans différentes universités parisiennes (Orsay, Paris 7, Paris-Nord) avant d’être nommé professeur de philosophie à Lille puis à Nanterre. Il a occupé de 1999 à 2015 la chaire de philosophie des sciences et théorie de la connaissance à l’Université de Paris-Sorbonne (Paris IV, aujourd’hui Sorbonne Université), dont il est désormais professeur émérite. Il a aussi été membre senior de l’Institut universitaire de France de 2007 à 2012. Il a été élu à l’Académie des sciences morales et politiques en 2016. Ses recherches se situent en philosophie des sciences et en philosophie de l’esprit, et portent sur les fondements des sciences cognitives et leurs rapports aux sciences sociales, s’étendant ainsi vers l’épistémologie sociale, ainsi que vers la question générale du statut du naturalisme scientifique aujourd'hui. Daniel Andler est l’auteur de plus d’une centaine de publications dont Introduction aux sciences cognitives (nouvelle édition 2004), Philosophie des sciences (avec Anne Fagot-Largeault et Bertrand Saint-Sernin, 2002), La Silhouette de l’humain. Quelle place pour le naturalisme dans le monde d’aujourd'hui ? (2016), La Cognition. Du neurone à la société (collectif co-dirigé avec Thérèse Collins et Catherine Tallon-Baudry, 2018). |