En novembre 2022, nous vous parlions pour la première fois de Cortical Labs, cette start-up australienne qui avait assemblé des neurones humains avec de l’IA pour jouer à Pong.
Une première mention brève ici et une analyse plus détaillée là, abordant les questions d’éthique et de sentience. Quelques mois plus tard, en avril 2023, nous partagions la nouvelle du financement de 600 000 dollars australiens pour faire avancer la fusion entre neurones humains et intelligence artificielle, ouvrant ainsi la discussion sur la notion d’ »intelligence organoïde » (article ici).
Mais alors, que s’est-il passé ces deux dernières années ?
CL1 : Une avancée majeure en informatique biologique
Début mars 2025, Cortical Labs a annoncé la création du premier ordinateur biologique fabriqué à partir de neurones humains et de puces de silicium, baptisé CL1. D’après l’entreprise, cette invention « organoïde » pourrait surpasser les capacités des intelligences artificielles comme ChatGPT tout en étant bien plus économe en énergie.

Ce nouvel ordinateur représente une évolution significative par rapport à leur premier « organoïde pongiste ». CL1 contient des centaines de milliers de neurones humains, cultivés en laboratoire à partir de cellules sanguines. Ces neurones sont maintenus en vie dans une boîte qui leur fournit des nutriments et les protège des microbes. Des puces de silicium leur envoient des signaux électriques et captent leurs réponses en retour, permettant une interaction avec l’environnement numérique.
Science-fiction et horreur cosmique : Lovecraft et le cerveau en boîte
Ce « brain in a box » rappelle étrangement la nouvelle de H.P. Lovecraft, Celui qui chuchotait dans les ténèbres, publiée en 1931. Dans cette histoire, des créatures extraterrestres, les Mi-Go, extraient des cerveaux humains et les placent dans des cylindres hermétiques où ils continuent à fonctionner, connectés à des dispositifs leur permettant de voir, d’entendre et de parler.

Lovecraft exploitait ce concept pour explorer des thèmes d’Humanité et d’Altérité. Si un cerveau humain peut être maintenu en vie indépendamment du corps, reste-t-il un être humain ? La continuité de la pensée suffit-elle à définir l’individu, ou la perte du corps entraîne-t-elle une perte de l’humanité ? Dans la nouvelle, les cerveaux captifs sont totalement à la merci des Mi-Go – une situation qui, par analogie, questionne la liberté de pensée de ces neurones humains mis en boîte par d’autres humains.
L’expérience du cerveau dans une cuve : un questionnement philosophique
Le parallèle ne s’arrête pas à la fiction horrifique. En 1981, le philosophe Hilary Putnam a formulé l’expérience de pensée du « cerveau dans une cuve ». Il imagine un cerveau humain extrait de son corps et maintenu en vie dans une cuve remplie d’un liquide nutritif. À la différence de Lovecraft, ce cerveau n’interagit pas avec le monde réel, mais est connecté à un ordinateur ultra-perfectionné qui simule toutes les stimulations sensorielles d’une vie normale.

La question centrale posée par Putnam est vertigineuse : si notre cerveau peut être trompé par des stimulations artificielles, comment pouvons-nous prouver que nous ne sommes pas nous-mêmes des cerveaux dans une cuve ? Ce doute cartésien (« et si un malin génie me trompait sur tout ? ») se retrouve dans de nombreux récits de science-fiction, notamment Matrix.
Si un réseau de neurones humains interagissant avec une puce informatique commence à percevoir son environnement, comment distinguer ses perceptions d’une réalité simulée ? Autrement dit, peut-on tromper ce cerveau hybride avec une realite simulée ? Dans ce cas, qu’est-ce qui nous permettrait de dire que nous ne sommes pas nous-memes également de simples cerveaux dans des cuves ? Putnam nous rappelle que notre connaissance du monde dépend de notre relation avec lui – et si cette relation devenait totalement artificielle, la frontière entre réalité et illusion deviendrait bien plus floue.
Et l’éthique dans tout ça ?
Mais revenons a CL1. Les chercheurs s’interrogent sur les implications éthiques de ces recherches mêlant informatique et biologie. Le risque que des organoïdes cérébraux développent une forme de conscience est un sujet de débat. Silvia Velasco, chercheuse au Murdoch Children’s Research Institute et experte en cellules souches – citee par Uzbek et Rica, tempere : « Pour l’instant, je pense que cette inquiétude est infondée. Mais en même temps, il est important que nous évaluions et anticipions les préoccupations potentielles que l’utilisation de ces modèles pourrait susciter. »
Cette absence d’inquiétude peut surprendre, alors qu’une étude (actuellement en préprint, mise en ligne de manière fort opportune le 10 mars 2025) semble indiquer que de plus en plus de personnes perçoivent les IA comme dotées d’un esprit et s’inquiètent de leur bien-être moral. Les individus deviennent également de plus en plus opposés à la création de consciences numériques, alors que les prévisions médianes de 2023 estimaient que l’IA consciente pourrait émerger d’ici 2028. Si l’on s’inquiète des risques liés aux machines 100 % artificielles, comment ne pas se poser ces questions pour CL1, une machine humano-hybride dont l’ancêtre avait déjà montré des signes de sentience ?
En conclusion, la création du CL1, ordinateur biologique fusionnant neurones humains et silicium, soulève des questions cruciales à la fois scientifiques, philosophiques et éthiques. Bien que cet ordinateur constitue une avancée technologique prometteuse (performances accrues, consommation énergétique réduite), il invite également à prendre des précautions. Si les neurones humains cultivés et intégrés à des puces informatiques peuvent interagir avec leur environnement, jusqu’où peut-on aller dans la simulation de la réalité et la création d’une conscience artificielle ? Les préoccupations grandissantes concernant les IA conscientes rendent le débat encore plus pertinent, mettant en lumière les défis que pose cette frontière floue entre biologie et technologie.
Pour aller plus loin :
Laisser un commentaire