Quand Alan Turing imaginait en 1950, une manière d’évaluer l’intelligence des machines, il ne parlait ni d’algorithmes ni de mémoire. Il a proposé un test ; dans son article Computing Machinery and Intelligence ; simple sur le papier : un humain discute à l’aveugle avec deux interlocuteurs — l’un humain, l’autre non — et doit deviner lequel est la machine. L’idée était de se demander non pas « comment la machine pense-t-elle ? », mais plutôt « la machine peut-elle se comporter de manière indiscernable d’un être humain dans une conversation ? » C’est le fameux « test de Turing », qu’aucun système informatique n’avait jamais réellement passé, mais cette barrière a été franchie par un certain ChatGPT (modèle 4.5.) C’est une équipe de l’université de Californie à San Diego, Cameron Jones et Benjamin Bergen, qui a organisé une version modernisée du test. Leur conclusion est claire : pour la première fois, une intelligence artificielle a été prise pour un humain… plus souvent que l’humain lui-même. « Les résultats constituent la première preuve empirique qu’un système artificiel passe un test de Turing standard en trois parties », affirment-ils. Quand l’IA devient plus crédible que l’humain Les chercheurs ont soumis 284 participants à une série d’échanges texte avec plusieurs entités : de véritables humains, mais aussi des IA comme GPT-4o, LLaMa-3.1 (Meta), ELIZA (l’ancêtre des années 1960 de tous les chatbots)… et GPT-4.5. Ce dernier a été identifié comme humain dans 73 % des cas. Comment expliquer ce résultat ? Par le choix d’un personnage composé pour l’occasion. GPT-4.5 ne répondait pas de façon neutre comme à son habitude. Il incarnait un jeune introverti, à l’aise avec les codes d’Internet, la langue parlée et les sous-entendus culturels de notre époque. Un persona (comme l’IA Monday, mais en version non-officielle) entièrement construite par prompt, et sans interface dédiée. Un rôle textuel sur mesure, imaginé par les chercheurs, spécifiquement pour rendre l’IA plus crédible et plus humaine. Selon les chercheurs, « c’est sans doute la facilité avec laquelle ces modèles peuvent adapter leur comportement à différents contextes qui les rend aussi flexibles, et visiblement aussi capables de se faire passer pour humains ». C’est donc sa plasticité comportementale qui a joué ici, et non sa puissance brute. Faut-il s’inquiéter d’une IA convaincante ? Cette capacité à se faire passer pour quelqu’un d’autre, Jones et Bergen la considèrent comme un atout… mais également comme un danger. Ils alertent sur le risque de débordements imaginables : « Des modèles capables de tromper avec autant de constance pourraient être utilisés à des fins de manipulation sociale ou de diffusion de fausses informations ». Car ce qui permet à une IA d’établir une relation plus fluide avec un utilisateur humain peut aussi devenir, entre de mauvaises mains ou dans un cadre mal défini, un vecteur de dérive : l’être humain a ; malheureusement ; toujours excellé dans ce petit exercice morbide. La possibilité d’exploiter la malléabilité de GPT-4.5 dans des secteurs vertueux existe aussi, tout n’est pas noir : outils éducatifs, agents conversationnels adaptés, accompagnement psychologique ou soins, etc. Toutefois, même si ces usages respectables sont envisageables, ils ne sauraient à eux seuls gommer la nécessité d’encadrer encore plus strictement l’usage de l’intelligence artificielle. Traçabilité des interactions, transparence des intentions derrière chaque agent conversationnel, avertissement explicite en cas d’IA non identifiée comme telle, ou encore limitation stricte de certains domaines sensibles comme le conseil juridique, la santé mentale ou les usages politiques. Ces quelques exemples de garde-fous devront un jour être posés avant que l’usage n’échappe à toute maîtrise. Attention cependant, GPT-4.5 n’a pas prouvé qu’il pense, il en est toujours strictement incapable. En revanche, ce qu’il a démontré, c’est qu’il est complètement apte à imiter les formes extérieures de la pensée humaine, avec suffisamment de crédibilité pour semer le doute chez ses interlocuteurs. Ce n’est pas de la compréhension au sens strict, mais une simulation convaincante du langage, du ton, des hésitations, et même des maladresses humaines ; celles-là mêmes qui, jusqu’ici, nous servaient de repères pour distinguer le vrai du faux, l’humain du programmé. Ce brouillage des repères ne dit rien de ce que GPT « est » au fond (justement parce qu’il n’est pas), mais en dit beaucoup de ce qu’il « fait ». C’est peut-être là que réside l’essentiel. Le test de Turing n’est pas une validation de l’intelligence : c’est un miroir tendu à nos propres seuils de tolérance, à notre tendance à projeter de l’intention sur des formes habiles de langage. Il ne faudrait pas se tromper de chemin dans notre réflexion en cherchant à savoir si la machine est consciente ; il s’agit plutôt de songer désormais à ce que nous faisons d’un outil qui peut, par moments, nous faire oublier qu’il ne l’est pas. GPT-4.5 a été identifié comme humain dans 73 % des cas lors d’un test inspiré du protocole de Turing mené sur 284 participants. Sa réussite a principalement reposé sur un persona conçu par prompt, incarnant un jeune introverti maîtrisant les codes culturels actuels : un rôle crédible auprès des personnes testées. Les chercheurs alertent néanmoins sur les usages à risque de cette capacité à tromper, malgré son très haut potentiel dans divers domaines. 📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.