-
[Veille] « Jean-Mich, et si on faisait une collection de cerveaux humains ? » « Ah ouais, trop cool comme idée ! »
Et c’est ainsi qu’au Danemark, on peut trouver une collection de près de 10 000 cerveaux humains, prélevés sur des patients atteints de troubles psychiatriques dont le consentement n’a pas été obtenu. Bon, après leur mort, il ne faut pas exagérer.
Une info qui avait fait quelques titres en 2023 :
Bien que son existence n’ait jamais été un secret et ait fait l’objet de rumeurs occasionnelles, la collection inhabituelle ne faisait pas partie de la conscience collective danoise jusqu’à ce que le projet de déménager à l’université d’Odense la révèle pleinement.
Un grand débat public – avec la participation de groupes politiques, religieux et scientifiques – a eu lieu sur l’éthique et la manière dont les restes humains sont conservés, ainsi que sur les droits des patients. Le peuple danois était confronté à quelque chose qu’il tenait à l’écart : les troubles mentaux.
« Il y avait une telle stigmatisation entourant les troubles mentaux que personne qui avait un frère, une sœur, un père ou une mère dans un service psychiatrique ne les a même mentionnés », déclare Knud Kristensen, ancien président de l’Association nationale pour la santé psychiatrique.
Marquez, G. (2023, avril 24). Science : Pourquoi le Danemark stocke près de 10 000 cerveaux. BBC News Afrique. https://www.bbc.com/afrique/articles/c2xexzyy3y8o- L’article sur le site de la BBC, en français : Marquez, G. (2023, avril 24). Science : Pourquoi le Danemark stocke près de 10 000 cerveaux. BBC News Afrique. https://www.bbc.com/afrique/articles/c2xexzyy3y8o
- La page web de ladite collection de cerveau, sur le site de l’université danoise University of Southern Denmark, en anglais : https://www.sdu.dk/en/om_sdu/institutter_centre/bridge/the-brain-collection
- Une vidéo, en français également, sur le site de France24 :
-
[Veille] Dans les cerveaux du passé
Le cerveau est généralement l’un des premiers organes à se décomposer après la mort, rendant la découverte de cerveaux préservés inhabituelle en archéologie. Divers mécanismes peuvent permettre une préservation à court terme, mais les cerveaux anciens sont rares. Une étude en anthropologie d’Alexandra L. Morton-Hayward a répertorié plus de 4400 cerveaux humains conservés sur environ 12 000 ans. L’étude de ces cerveaux suggère un mécanisme inconnu de préservation spécifique du système nerveux central.
- L’étude scientifique en anglais : Morton-Hayward, A. L., Anderson, R. P., Saupe, E. E., Larson, G. & Cosmidis, J. G. Human brains preserve in diverse environments for at least 12 000 years. Proceedings of the Royal Society B: Biological Sciences 291, 20232606 (2024). https://doi.org/10.1098/rspb.2023.2606
- L’interview d’Alexandra L. Morton-Hayward dans le magazine Science, en anglais : ‘Jelly in the skull’: Ancient brains are preserved more often than you think. https://www.science.org/content/article/jelly-skull-ancient-brains-are-preserved-more-often-you-think.
- Dans Geo Magazine, en français : Ragot, M. Le cerveau humain pourrait être étonnamment résistant aux ravages du temps, révèle une étude. Geo.fr https://www.geo.fr/histoire/archeologie-cerveau-humain-pourrait-etre-etonnamment-resistant-aux-ravages-du-temps-revele-une-etude-conservation-archives-biologie-219371 (2024). Si vous voulez mon avis, l’article ne cite pas assez le nom de l’autrice de l’étude en tant que telle, elle est seulement mentionnée comme « spécialiste ». De plus, cet article mentionne une date de publication incorrecte (2023 au lieu de 2024, la vraie date). Cependant, il reste plus complet que d’autres (comme celui de Sciences et Avenir ici, qui est très light).
Traduction semi-automatique du résumé Science :
Le cerveau est un organe délicat, qui se décompose et se liquéfie peu de temps après la mort. Cependant, du tissu cérébral bien préservé a été enregistré dans certaines circonstances bien étudiées : la momification, la congélation dans le pergélisol, le tannage et la préservation par les tourbières acides. Mais les équipes scientifiques ont souvent supposé que ces circonstances étaient rares dans le registre archéologique.
L’anthropologue médico-légale et ancienne entrepreneur funéraire Alexandra Morton-Hayward le pensait. Mais dans une nouvelle étude, elle et ses collègues ont identifié plus de 4400 cas de cerveaux anciens conservés longtemps après la mort, jusqu’à 12 000 ans dans un des cas.
Un mystère supplémentaire ? Des centaines de cerveaux ont été trouvés préservés, même lorsque tous les autres tissus mous du corps s’étaient décomposés. Y a-t-il un processus biochimique jusqu’à présent inconnu préservant nos organes de pensée ? Morton-Hayward le pense. « Tout comme nous sommes tous différents dans la vie, nous nous décomposons tous différemment dans la mort », dit-elle au journaliste scientifique Andrew Curry. « Beaucoup semble dépendre de la façon dont vous avez vécu et des causes de votre décès ».
Les cerveaux anciens conservés pourraient contenir des protéines et de l’ADN moins dégradés que ceux présents dans les os, note-t-elle, ce qui pourrait offrir un regard plus complet sur ceux qui nous ont précédés.
‘Jelly in the skull’: Ancient brains are preserved more often than you think. https://www.science.org/content/article/jelly-skull-ancient-brains-are-preserved-more-often-you-think. -
[Veille] L’IA générative au service de la santé mentale
Des scientifiques de l’Université de Yale ont conçu un modèle d’IA générative novateur destiné à la psychiatrie personnalisée. Ce modèle exploite l’apprentissage automatique pour examiner les données de neuroimagerie (IRM fonctionnelle a l’etat de repos) et les symptômes des patients, ce qui permet de prédire les associations entre les symptômes et des régions spécifiques du cerveau.
- L’étude scientifique en anglais : Helmer, M., Warrington, S., Mohammadi-Nejad, A.-R., Ji, J. L., Howell, A., Rosand, B., Anticevic, A., Sotiropoulos, S. N., & Murray, J. D. (2024). On the stability of canonical correlation analysis and partial least squares with application to brain-behavior associations. Communications Biology, 7(1), 1–15. https://doi.org/10.1038/s42003-024-05869-4
- Le communique de presse de Yale : Hathaway, B. (2024, February 23). Making associations: Yale-developed tool helps personalize psychiatric care. YaleNews. https://news.yale.edu/2024/02/23/making-associations-yale-developed-tool-helps-personalize-psychiatric-care
Traduction semi-automatique du debut du communique de presse :
Au cours de la dernière décennie, les scientifiques ont accumulé de nombreux outils pour aborder le défi complexe des troubles mentaux, tels que de nouveaux outils d’analyse génomique et des technologies d’imagerie cérébrale haute résolution, ou encore la création d’énormes banques de données de patients et de nouveaux modèles d’intelligence artificielle pour les analyser. Pourtant, la quête de traitements personnalisés s’est jusqu’à présent révélée infructueuse pour presque tous les troubles neuropsychiatriques.
« Ces efforts ont été limités par un manque de compréhension de la manière dont les symptômes se manifestent dans les circuits cérébraux », declare John Murray, ancien professeur de psychiatrie et de physique à Yale, désormais à Dartmouth College.
Un nouveau cadre de modélisation générative développé à Yale, pourrait aider les neuropsychiatres à mieux prédire la relation entre plusieurs dimensions de l’activite neuronale et les symptômes des patients, affirment les chercheurs. Pour Alan Anticevic, professeur agrégé de psychiatrie Glenn H. Greenberg et professeur agrégé de psychologie, l’un des auteurs de l’étude, cette avancée peut aider le domaine de la neuropsychiatrie à « prendre des décisions éclairées sur la manière dont les études et les essais cliniques sont conçus et exécutés pour avoir une plus grande chance de cartographier les symptômes sur les circuits cérébraux ».
Traduit de Hathaway, B. (2024, February 23). Making associations: Yale-developed tool helps personalize psychiatric care. YaleNews. https://news.yale.edu/2024/02/23/making-associations-yale-developed-tool-helps-personalize-psychiatric-care -
[Veille] Les chercheurs en psychologie ne se souviennent pas de leurs collègues femmes
En ce mois de mars 2024, le magazine Science nous reparle des résultats d’une étude de 2020 qui montre que les biais implicites des hommes continuent de perpétuer les différences hommes-femmes dans le champ professionnel de la recherche !
- L’étude scientifique parue dans American Psychologist: Odic, D., & Wojcik, E. H. (2020). The publication gender gap in psychology. American Psychologist, 75(1), 92‑103. https://doi.org/10.1037/amp0000480
- L’article de vulgarisation dans Science (en anglais): L’article de vulgarisation dans Science (en anglais): Rodrigo Pérez Ortega (2024), Men psychology researchers can’t seem to remember their women colleagues. Science.org https://doi.org/10.1126/science.ztic78x
Traduction semi-automatique du premier paragraphe :
Lorsqu’on leur demande de citer une personne experte dans leur domaine, les chercheurs en psychologie masculins nomment significativement moins de femmes que leurs collègues féminines, selon une nouvelle étude. Les résultats, qui reflètent le biais implicite des hommes, aident à expliquer pourquoi les femmes sont moins susceptibles que les hommes d’être citées pour leur travail ou d’être invitées à parler lors de réunions et à postuler à des emplois, même si plus de 70 % des doctorats dans le domaine ont été décernés à des femmes ces dernières années.
« Ceci devrait conduire à diminuer la grande importance que l’on accorde à l’Impact Factor dans l’évaluation du travail des chercheuses et chercheurs », déclare Asia Eaton, psychologue à l’Université internationale de Floride, qui étudie les causes sociales et psychologiques du sexisme – elle n’a pas été impliquée dans l’étude discutée. « Nous ne pouvons nous permettre d’accorder beaucoup de poids aux comptages de citations ou aux impact factors lorsqu’il existe un biais social évident dans la fréquence à laquelle les gens se souviennent et citent probablement des chercheurs hommes par rapport aux chercheuses femmes. »
Rodrigo Pérez Ortega (2024), Men psychology researchers can’t seem to remember their women colleagues. Science.orgQu’est-ce que l’Impact Factor ?
L’impact factor est une mesure utilisée pour évaluer la pertinence et l’influence d’une revue scientifique dans le domaine académique. Il est calculé en analysant le nombre moyen de citations reçues par les articles publiés dans cette revue au cours d’une période donnée, généralement sur une année. Plus précisément, l’impact factor d’une revue est calculé en divisant le nombre total de citations reçues par les articles publiés dans cette revue au cours des deux années précédentes par le nombre total d’articles publiés dans cette même revue au cours de ces deux années.
Pourquoi est-ce que c’est important ?
Un impact factor plus élevé est généralement considéré comme indicatif d’une plus grande visibilité et influence de la revue dans la communauté scientifique. Par conséquent, de nombreux chercheurs et universités utilisent l’impact factor comme l’un des critères pour évaluer la qualité et la réputation d’une revue scientifique, ainsi que la contribution des chercheurs qui y publient leurs travaux.
Cependant, l’utilisation de l’impact factor comme mesure d’évaluation présente des limitations évidentes, comme illustré ici : cela peut contribuer à perpétuer des biais existants, où les chercheurs ont tendance à citer davantage les travaux d’hommes que ceux de femmes, ce qui peut influencer les chiffres de l’impact factor, qui va automatiquement désavantager les candidatures des femmes aux postes de chercheuses et enseignantes universitaires…
-
Fusionner des cellules cérébrales avec une IA, le projet fou d’une équipe financée par le gouvernement australien
Une équipe australienne obtient un financement de 600 000 dollars pour fusionner les cellules cérébrales humaines avec l’IA. L’équipe est celle-là même qui avait créé l’an dernier DishBrain, un amas de cellules capable de jouer à Pong et qui semblait pourvu de sentience. Souvenez-vous, on vous en avait parlé ici. L’idée est de créer des ordinateurs biologiques programmables. Ca fait flipper ou ça fait flipper ?…
Résoudre le problème de « l’oubli catastrophique »
D’après l’équipe de recherche, l’intérêt d’une telle IA serait de pouvoir apprendre tout au long de sa vie. En effet, les réseaux de neurones artificiels souffrent de ce que l’on appelle « l’oubli catastrophique ». En gros, une IA se spécialise souvent sur un type de tâche, alors que notre cerveau à nous est capable d’une grande variété d’actions. A la fin d’une tâche et avant d’en apprendre une nouvelle, notre cerveau sait quelles synapses préserver pour continuer à « savoir faire », alors que les réseaux de neurones artificiels remploient arbitrairement certaines de leurs parties tout en en oubliant d’autres, limitant ainsi leur capacité à généraliser et à maintenir une performance équilibrée sur diverses tâches. Ce n’est pas la première fois que des chercheurs en IA souhaitent s’inspirer du cerveau humain pour contrer l’oubli catastrophique des machines. Par exemple, en 2021, une équipe du CNRS proposait une solution ici (article en français, plus ou moins grand public et ici l’article scientifique dans Nature Communications en anglais). Cette solution française était 100% artificielle.
L’émergence de l’intelligence organoïde ultra-efficace
« Intelligence organoïde », c’est le terme proposé par les équipes de recherche de la Johns Hopkins University, une des plus prestigieuses universités américaines, connue pour son excellence en recherche, en particulier dans le domaine de la médecine, pour désigner l’utilisation de cellules biologiques pour créer des intelligences artificielles. Pour eux, l’enjeu majeur est plutôt celui de la consommation énergétique. Et pour cause : pour réaliser un calcul de 1 exaflop, il faut un superordinateur de 21 mégawatts. Un cerveau humain peut faire le même calcul, avec seulement 20 watts. C’est pourquoi ils ont lancé dans la revue Frontiers in Science (en anglais) un appel à la collaboration scientifique, pour transformer ce concept en réalité. Les difficultés à surmonter sont :
- les défis biologiques : développer des organoïdes cérébraux actuels en structures 3D complexes et durables, les connecter à des dispositifs d’entrée et de sortie de nouvelle génération,
- les défis informatiques : nouveaux modèles, algorithmes et technologies d’interface pour communiquer avec les organoïdes cérébraux, comprendre leur processus d’apprentissage et de calcul, ainsi que traiter et stocker les énormes quantités de données qu’ils généreront,
- et bien sûr, les défis éthiques : une approche d’éthique intégrée impliquant des équipes interdisciplinaires composées d’éthiciens, de chercheurs et de membres du public qui identifient, discutent et analysent les problèmes éthiques, puis fournissent des retours pour orienter les futures recherches et initiatives.
Un financement militaire
Le financement obtenu émane de l’ONI et du NSSTC, deux organes du gouvernement australien, qui espère en tirer un positionnement privilégié sur ces technologies. Le NSSTC ou « National Security Science and Technology Centre » (Centre de science et de technologie pour la sécurité nationale), est une initiative de recherche gérée par l’organisme de recherche et de développement de la défense australien, le « Defence Science and Technology » (DST). Ce centre se concentre sur la recherche et le développement de technologies liées à la sécurité nationale, notamment dans les domaines de la défense, de la sécurité intérieure et de la gestion des crises. L’Office of National Intelligence (ONI) est l’agence centrale responsable de la coordination et de l’intégration du renseignement à l’échelle nationale. Son rôle principal est de fournir des évaluations et des analyses de renseignement pour soutenir les politiques de sécurité nationale et les décisions du gouvernement australien.
Article en anglais sur le site du Guardian (grand public)
Et quelques liens en français, un peu confidendiels (désolée, je n’ai pas trouvé mieux) :- Neozone : L’invention d’un procédé pour fusionner des cellules cérébrales avec une intelligence artificielle (IA)
- LeBigData : Ces futurs robots de combat seront dotés d’une IA semi-biologique (un titre *à peine* alarmiste et presque pas exagéré… – en fait si un peu quand même)
Dans cet article, ChatGPT a été utilisé pour générer des descriptions du NSSTC et de l’ONI et résumer une partie de l’article Frontiers in Science.
-
[Veille] Ecouter de la musique a un effet analgésique amplifié quand on bat la mesure
Aujourd’hui, je vous fais un petit résumé vulgarisé d’une étude sympathique menée par Lucy M. Werner,Stavros Skouras,Laura Bechtold,Ståle Pallesen,Stefan Koelsch dans le cadre d’une collaboration entre l’Allemagne et la Norvège.
A la base de l’étude, les scientifiques se sont dit que :
- Oui, le fait d’écouter de la musique réduit la sensation de douleur, mais c’est un effet tellement léger qu’on peut se demander si ça sert à quelque chose.
- Par ailleurs, le fait de se synchroniser à la musique, par exemple en dansant, en frappant dans ses mains ou en battant la mesure, a des effets connus sur les liens sociaux et sur les émotions. Et les liens sociaux et les émotions, ça peut jouer sur la perception de la douleur.
=> D’où la question : est-ce que par hasard le fait d’écouter de la musique EN SE SYNCHRONISANT en battant la mesure réduirait la douleur PLUS que simplement écouter de la musique, ou en n’écoutant rien du tout ?
Ils ont donc infligé des douleurs (en leur appuyant plus ou moins fort et longtemps sur les doigts avec un appareil) à 4 groupes de personnes volontaires : un groupe qui écoutait de la musique sans bouger, un groupe qui écoutait de la musique en battant la mesure, un groupe qui battait la mesure mais sans musique, et un groupe qui n’avait pas de musique et ne bougeait pas.
Résultat : quand on écoute de la musique tout en battant la mesure, l’effet de réduction de la douleur est fort. L’explication proposée est que le fait de battre la mesure en cadence avec la musique tout en se synchronisant active des circuits liés à l’attention et aux émotions, qui amplifient l’effet anti-douleur de base de la musique. D’ailleurs, l’effet anti-douleur est d’autant plus puissant qu’on apprécie la musique en question (sans blague…), mais n’est en revanche pas lié au fait d’avoir entendu ladite musique 1000 fois (personnellement je trouve aussi douloureux d’entendre certains morceaux à la radio pour la 1000e fois, si ce n’est plus). Et aussi, on apprécie un micro-poil plus la musique quand on bat la mesure plutôt que quand on est passif. Je vous passe les détails sur le système opioïde endogène (en gros, la musique c’est mieux que la drogue #tmtc).
Pour en savoir plus, retrouver ici l’article scientifique en anglais et en accès libre.
Références : Werner, L. M., Skouras, S., Bechtold, L., Pallesen, S., & Koelsch, S. (2023). Sensorimotor synchronization to music reduces pain. PLOS ONE, 18(7), e0289302. https://doi.org/10.1371/journal.pone.0289302
-
[Veille] Nouvelle réunion sur les Neurodroits à l’UNESCO
Ce mois-ci, la revue Nature se fend d’un article (grand public) sur les dernières actus des neurodroits. Liam Drew revient brièvement sur la réunion du 13 juillet dernier organisée par l’Unesco à Paris. Retrouvez son article dans Nature dans son intégralité ici en anglais. TL;DR : le marché explose, les applications cliniques sont nombreuses, les dérives possibles aussi. Les questions éthiques abondent notamment sur la question de la vie privée, il devient urgent de réguler les marchés. Tous les spécialistes plaident en faveur des neurodroits. Et il faut débattre… Justement, nous arrivions à la même conclusion, dans notre article en avril dernier (en français, celui-ci !) qui faisait le point sur les textes et initiatives existantes.
Bonne lecture !
-
ChatGPT & la chambre chinoise : les limites des modèles de langage
Les modèles de langage ont fait des progrès significatifs ces dernières années, en générant des réponses sophistiquées qui imitent le langage humain. Tout le monde ou presque s’est amusé à discuter avec ChatGPT et en a été époustouflé… jusqu’à se rendre compte qu’il racontait parfois n’importe quoi. Avec ChatGPT, on a vraiment l’impression de discuter avec une personne à la fois savante et mythomane.
Nous allons essayer d’expliquer simplement, et à l’aide d’une analogie avec une célèbre expérience de pensée philosophique, pourquoi il en est ainsi.
Comment fonctionne ChatGPT ?
ChatGPT est un chatbot qui utilise le modèle de langage GPT (Generative Pre-trained Transformer), un type de modèle d’apprentissage en profondeur (deep learning) qui utilise une architecture de Transformer (basée sur des réseaux de neurones) et développé par OpenAI.
Comment fonctionne GPT ?
GPT convertit d’abord le texte d’entrée en une séquence de « tokens », qui peuvent être considérés comme des unités discrètes de signification (mots ou partie de mots). C’est ce qu’on appelle la tokenisation, dont le but est de transformer le texte brut en un format plus facile à traiter par un modèle d’apprentissage automatique. En découpant le texte en unités distinctes, le modèle peut comprendre plus facilement les relations entre les mots et les phrases dans le texte. Prenons par exemple la phrase « Portez ce vieux whisky au juge blond qui fume. » Une tokenisation simple pourrait diviser cette phrase en mots individuels, ce qui donnerait une séquence de tokens telle que [« Portez », « ce », « vieux », « whisky », « au », « juge », « blond », « qui », « fume », « . »].
Une fois que le texte a été tokenisé, chaque token doit être représenté par un vecteur numérique que le modèle d’apprentissage automatique peut utiliser. C’est là que l’embedding entre en jeu.
Un embedding est une représentation vectorielle d’un token qui capture son sens dans le texte. Les embeddings sont généralement appris par le modèle lors de l’entraînement. L’idée clé derrière les embeddings est que les tokens similaires doivent être représentés par des vecteurs similaires. Par exemple, les mots « chien » et « chiot » sont similaires en sens et doivent donc avoir des embeddings similaires.
Illustrations d’embeddings. A gauche, une représentation en 2D et à droite une représentation en 3D. Les termes proches sémantiquement apparaissent groupés. De plus, le déplacement pour passer de “homme” à “femme” est similaire à celui pour passer de “roi” à “reine”, ce qui montre que la différence entre chaque terme est similaire.
Grâce à l’architecture Transformer utilisée par GPT, l’embedding va être dynamique. Cela signifie qu’un même mot ayant plusieurs sens différents, aura différents vecteurs. Ces vecteurs seront contextualisés en fonction des autres mots et phrases du texte.
Le mot « apple » en anglais peut référer à une pomme ou à la marque. Le mot « bank » peut se référer à une banque ou une rive. Avec l’architecture Transformer, le vecteur pour représenter ces mots sera différent en fonction du contexte dans lesquels ils se trouvent.
Après la phase de tokenisation, le modèle va être entrainé via un processus appelé apprentissage auto-supervisé, où il apprend à prédire le prochain mot dans une séquence de texte, étant donné tous les mots précédents : GPT est présenté avec une séquence d’entrée de tokens et est invité à prédire le token suivant dans la séquence. Les paramètres du modèle sont mis à jour en fonction de la différence entre le token prédit et le token suivant réel dans la séquence. En faisant cela des millions de fois sur un corpus de textes très large, GPT apprend à modéliser la distribution de probabilité des mots et des phrases dans la langue, ce qui lui permet de générer des réponses cohérentes et plausibles à l’entrée de texte.
Pourquoi je vous explique tout ce charabia ? Parce que je veux que vous compreniez que GPT fonctionne en utilisant l’apprentissage non supervisé (c’est-à-dire qu’il apprend tout seul) pour créer des modèles statistiques. Il crée des relations mathématiques entre les signifiants (les ensemble de caractères formant des mots) mais n’a aucune connaissance des signifiés (les concepts derrière chaque mot). En gros : ChatGPT ne comprend rien de ce qu’il dit.
Petit aparte : vous imaginez bien que si on entraine GPT sur les dires de Maitre Gims, le modèle calculera une proximité entre Egypte, pyramide et électricité, et vous obtiendrez des réponses complètement fausses d’un point de vue scientifique et historique.
La Chambre Chinoise de Searle
On peut faire une analogie avec l’expérience de pensée de la Chambre Chinoise proposée en 1980 par le philosophe John Searle. Ce dernier a utilisé cette expérience pour contester l’idée de l’IA forte (autrement appelée AGI en anglais) qui suggère qu’une machine peut véritablement comprendre le langage et avoir une conscience.
L’expérience se déroule comme suit : imaginez que vous êtes dans une pièce et que vous ne parlez ni ne comprenez le chinois. Vous recevez des caractères chinois écrits qui vous sont transmis par une fente dans le mur. Vous avez à votre disposition un livre d’instructions qui vous indique quels caractères chinois utiliser pour répondre à ceux reçus. Le livre d’instructions est si détaillé que vous pouvez produire une réponse à n’importe quel caractère chinois que vous recevez.
Maintenant, imaginez que quelqu’un à l’extérieur de la pièce commence à vous passer des messages écrits en caractères chinois à travers la fente dans le mur. À l’aide du livre d’instructions, vous êtes capable de produire des réponses aux messages qui vous sont transmis. Les réponses sont si convaincantes que la personne de l’autre côté du mur croit communiquer avec quelqu’un qui comprend le chinois.
Cependant, vous, la personne dans la pièce, ne comprenez pas du tout le chinois. Vous suivez simplement les instructions du livre pour produire les réponses correctes. C’est là le cœur de l’argument de Searle : tout comme vous dans la chambre chinoise, un programme informatique peut manipuler des symboles de manière à produire l’apparence de compréhension, mais il ne comprend rien en réalité.
Searle soutient que la compréhension du langage nécessite plus que la simple capacité à manipuler des symboles (des signifiants) selon un ensemble de règles. Elle nécessite une véritable compréhension des concepts (les signifiés) derrière les symboles, et une expérience subjective, ce dont ne disposent pas les machines.
Que ce soit ChatGPT ou la Chambre Chinoise, dans les deux cas les systèmes manipulent des signifiants (les mots, les caractères) avec des règles (statistiques dans le cas de GPT), et ce sans comprendre les signifiés (les concepts). Même si ChatGPT et d’autres modèles de langage ont fait des progrès significatifs dans la génération de réponses sophistiquées, ils leur manquent toujours la capacité de comprendre réellement le sens des mots qu’ils utilisent.
Maintenant, vous savez que ChatGPT n’est pas si intelligent que ça, et j’espère que vous garderez cela à l’esprit quand vous l’utiliserez : il faut toujours vérifier les réponses qu’il vous fournit !