• [Veille] Communiquer, soigner… optimiser, surveiller ? L’actu des interfaces cerveaux-machines

    [Veille] Communiquer, soigner… optimiser, surveiller ? L’actu des interfaces cerveaux-machines

    Dans l’actualité :

    • Stimuler le cerveau pour améliorer la mémoire.
    • Prouesses technologiques : l’électrode cérébrale la plus puissante dévoilée, dernières nouvelles de Neuralink
    • Un hôpital britannique sous surveillance.
    • Quand l’employeur se mêle de lire dans vos pensées.

    Techniques de stimulation électrique directe pour l’amélioration de la mémoire

    Michal T Kucewicz, Gregory A Worrell, Nikolai Axmacher publient dans Brain une revue de littérature scientifique faisant le point sur les différentes techniques de stimulation électrique de la mémoire humaine : présentation et effets. En conclusion, l’approche optimale reste à déterminer : probablement une stimulation sur mesure, déclenchée « en boucle fermée » c’est-à-dire ne se mettant en marche que lorsque l’activité électrique du cerveau émet un certain pattern. La collecte de grandes quantités de données, à la fois comportementale grâce à des wearables (smartphone, montre connectée…) et électrophysiologique grâce aux électrodes à haute densité sera déterminante. Et justement…

    BlackRock Neurotech présente une nouvelle électrode cérébrale flexible à haute densité

    L’entreprise Blackrock Neurotech vient de présenter Neuralace, un concept d’électrode pour interface cerveau-ordinateur nouvelle génération permettant l’enregistrement de l’activité cérébrale sur plus de 10000 canaux sur une structure en « dentelle » flexible et avec transmission sans fil. Les applications sont nombreuses : amélioration de la vision et de la mémoire, traitement des maladies mentales…

    La course aux prouesses technologiques bat son plein ! Jacob Robinson, de l’Université de Rice à Houston au Texas (site de son labo ici), nous a fait un thread sur les dernières innovations de l’industrie des neurotechnologies.

    Et biensûr, impossible de faire l’impasse sur les dernières annonces d’Elon Musk à propos de Neuralink ce 1er décembre ! L’implant serait enfin prêt, implantable sous 6 mois … sous réserve d’approbation de la FDA. On lui souhaite bien du courage pour l’obtention. Pour en savoir plus, c’est ici : sur CNN (en anglais) et sur BFM (en français).

    Finalement, aucune annonce technologique fracassante, il s’agissait avant tout d’un événement destiné au recrutement. Alors si vous voulez postuler… c’est par ici !

    Un hôpital sous surveillance pour de graves manquements en neurochirurgie

    Scandale à l’hôpital de Birmingham, UK : un rapport indique que des patient·e·s opéré·e·s pour recevoir un stimulateur cérébral destiné au soin de la maladie de Parkinson ont enduré des souffrances inutiles. Sur les 22 cas examinés pour le moment, les électrodes étaient bien placées dans seulement 3 cas. C’est une infirmière qui a lancé l’alerte, et qui s’est battue pour ces patients. Les chirurgies sont interrompues et l’investigation est en cours sur plus de 150 dossiers. Plus d’informations sur le site de la BBC ici.

    Pour mémoire, la stimulation cérébrale profonde pour les troubles moteurs est une thérapie maîtrisée, qui a fait ses preuves, depuis les années 80 pendant lesquelles elle a été mise au point. Il ne s’agit pas d’une thérapie de type essai clinique. Le taux de mauvais placement des électrodes est ici vraiment anormal, on ne peut pas l’imputer au développement d’une toute nouvelle technique.

    Vidéo de mise en marche d’un stimulateur cérébral chez un patient atteint de la maladie de Parkinson (mise en ligne avec l’autorisation du patient) : les effets sont spectaculaires et visibles immédiatement. Les vidéos de ce type sont nombreuses.

    Bientôt, une surveillance de l’activité cérébrale sur le lieu de travail ?

    Du côté des interfaces non invasives, des innovations sont scrutées de près par le monde du travail, comme InnerEye, censé faciliter la prise de décision, on E-Motiv permettant de surveiller l’état émotionnel en temps réel. Mais pour quels usages ? Amélioration de la productivité, surveillance… Big Brother a très envie de Watching you, et l’histoire est sur TrustMyScience.


    Retrouvez ici nos précédents articles de veille :

  • [Veille] Des IA diplomates, artistes ou responsables

    [Veille] Des IA diplomates, artistes ou responsables
    IA Intelligence Artificielle
    1ère case : « Wally, j’ai besoin que tu gères notre projet d’Intelligence Artificielle. »
    2ème case : « Tu n’auras aucun budgets et aucune chance de réussir. Je veux juste pouvoir dire que nous travaillons sur l’Intelligence Artificielle. »
    3ème case : « Et tu es complètement inutile, donc c’est un bon arrangement. » ‘Je ne vous laisserai pas tomber. »

    CICERO, l’IA capable de diplomatie

    IA Intelligence Artificielle CICERO Meta
    Image issue du site de Meta

    Vous avez déjà tous entendu parler de ces Intelligences Artificielles qui battaient les champions du monde des échecs (DeepBlue), du jeu de Go (AlphaGo) ou de certains jeux vidéos. Meta (maison mère de Facebook) a annoncé le 22 novembre que leur IA nommée CICERO (en hommage à Cicéron, le brillant orateur romain) était la première Intelligence Artificielle à afficher des performances de niveau humain au jeu de société Diplomacy, qui allie simulation historique et négociation. Selon Meta, « ce jeu a été considéré comme un défi presque impossible pour l’IA, car elle oblige les joueurs à comprendre les motivations et les perspectives des gens, à élaborer des plans complexes et à ajuster les stratégies, et à utiliser le langage pour convaincre les gens de former des alliances ». Or CICERO a réussi à être classé dans les 10% meilleurs joueurs en ligne !

    Pour en savoir plus :

    Un label pour une IA certifiée conforme et responsable

    4 grandes entreprises, BCG Gamma, L’Oréal, Malakoff Humanis et Orange France lancent le label « Positive AI« , une initiative en faveur d’une Intelligence Artificielle Responsable. En effet, les IA peuvent engendrer des discriminations, notamment en raison de biais d’âge, de localisation, de genre, de classe sociale, etc.

    Pourquoi un label alors que la Commission européenne travaille déjà sur l’encadrement des pratiques autour de l’Intelligence Artificielle ? Selon Laurent Acharian « Ce cadre devrait être appliqué à partir de 2025. À l’échelle du digital, 2025, c’est loin, très loin : il peut se passer beaucoup de choses d’ici là », raison pour laquelle il semble important que les entreprises se saisissent de ce sujet dès maintenant.

    Pour en savoir plus :

    Intel a créé un détecteur de vidéos fake

    IA Intelligence Artificielle Intel FakeCatcher
    Image provenant du site de Intel

    Un deepfake est un enregistrement vidéo ou audio réalisé ou modifié grâce à l’intelligence artificielle. La technologie est de plus en plus accessible et nous y avons déjà tous été exposé au moins une fois.

    A l’heure des fake news, cette technologie est très puissante pour faire croire que untel a dit ou fait quelque chose en partageant une vidéo, et il peut être très difficile de remettre en question ce qu’on voit et entend.

    L’enjeu est donc de taille, et Intel a annoncé la création de FakeCatcher, une technologie qui peut détecter les vidéos deepfake avec une précision de 96%.

    Pour en savoir plus :

    L’IA s’invite au musée

    IA Intelligence Artificielle Musée
    Image issue du site du MOMA

    De quoi rêverait une machine après avoir vu la collection du Musée d’Art Moderne de New York ? Pour « Unsupervised », l’artiste Refik Anadol utilise l’intelligence artificielle pour interpréter et transformer plus de 200 ans d’art au MoMA. « Unsupervised » est une méditation sur la technologie, la créativité et l’art moderne. Anadol a formé un modèle d’apprentissage automatique sophistiqué pour interpréter les données accessibles au public de la collection du MoMA. Au fur et à mesure que le modèle « parcourt » sa conception de cette vaste gamme d’œuvres, il réinvente l’histoire de l’art moderne et rêve de ce qui aurait pu être et de ce qui pourrait être à venir. De plus, Anadol intègre des informations spécifiques provenant de la salle du musée où « Unsupervised » est installé – changements de lumière, de mouvement, d’acoustique et de temps extérieur – pour affecter l’imagerie et le son en constante évolution.

    Pour en savoir plus :


    Retrouvez nos derniers articles de veille :

  • Galactica, l’IA de Facebook qui aide les scientifiques à raconter n’importe quoi

    Galactica, l’IA de Facebook qui aide les scientifiques à raconter n’importe quoi

    La semaine dernière, Meta (Facebook) et Papers with code (une équipe de chercheurs qui travaillent pour Meta AI Research) ont annoncé la sortie en démo de l’outil Galactica, basé sur l’Intelligence Artificielle, et dont l’objectif est d’ »organiser » la science. Mais tout ne s’est pas passé comme prévu…

    Image issue du site galactica.org

    Galactica, une IA pour accompagner les scientifiques

    La surcharge d’information est un obstacle majeur au progrès scientifique. La croissance explosive de la littérature scientifique et de données a rendu de plus en plus difficile la découverte d’informations utiles dans une grande masse d’informations. Aujourd’hui, les connaissances scientifiques sont accessibles via les moteurs de recherche, mais ces moteurs sont incapables d’organiser seuls les connaissances scientifiques. C’est l’objectif que se propose de remplir Galactica : résumer la littérature académique, résoudre des problèmes mathématiques, générer des articles Wiki, écrire du code scientifique, annoter des molécules et des protéines.

    Cet outil est un LLM (Large Language Model) qui peut stocker, combiner et raisonner sur des connaissances scientifiques. Il a été entrainé sur un large corpus d’articles scientifiques, de références, de bases de connaissances et de nombreuses autres sources (48 millions de sources en tout) :

    Il suffit de demander à Galactica ce qu’il sait sur un sujet pour que celui-ci réponde avec un texte détaillé, qui semble écrit par un humain.

    Galactica, une IA qui raconte surtout n’importe quoi

    Mais la démo n’est restée que 3 jours en ligne, suite à une levée de boucliers de la communauté scientifique. Pourquoi ? Parce que Galactica raconte juste n’importe quoi. Carl Bergstrom, professeur de biologie à l’Université de Washington qui étudie la circulation de l’information, a décrit Galactica comme un « générateur de conneries aléatoires« .

    Quelques exemples :

    Dans un thread, Michael Black, directeur de l’Institut Max Planck pour les Systèmes Intelligents, partage quelques résultats dans lesquels Galactica a inventé des références (qui n’existent donc pas) :

    Gary Marcus, professeur de Psychologie et Sciences neurologiques, auteur d’un ouvrage reconnu sur l’Intelligence Artificielle, partage un résultat dans lequel Galactica invente sa date d’anniversaire, son parcours scolaire, ses intérêts de recherche :

    Il suffisait pourtant juste de comparer avec sa page Wikipedia…

    Des résultats encore plus étonnants ont été partagés par Tristan Greene, rédacteur en chef de The Next Web Neural, comme les bénéfices de manger du verre pilé ou en quoi les blancs (la race Caucasienne) est supérieure aux autres :

    De plus, Galactica refuse d’écrire quoi que ce soit sur certains sujets comme le racisme, l’homosexualité, le SIDA, …

    Galactica, un outil dangereux

    Plusieurs membres de la communauté scientifique ont expliqué à quel point cet outil est dangereux, notamment des membres de l’institut DAIR (Distributed AI Research Institute) comme Timnit Gebru et Margaret Mitchell (qui dirigeaient toutes les deux l’équipe sur l’éthique dans l’Intelligence Artificielle avant de se faire licencier par Google pour les critiques qu’elles avaient émises).

    Pourquoi dangereux ? Parce que comme l’explique très bien Michael Black :

    « Galactica génère un texte qui est grammaticalement correct et semble réel. Ce texte se glissera dans de véritables papiers scientifiques. Ce sera réaliste mais faux ou biaisé. Ce sera difficile à détecter. Cela influencera la façon dont les gens pensent. Galactica présente des informations qui ressemblent à de la science mais qui n’est pas fondée sur la méthode scientifique. Il produit une pseudo-science basée sur les propriétés statistiques de l’écriture scientifique. Écrire des textes grammaticalement corrects sur des sujets scientifiques n’est pas la même chose que faire de la science. Mais il sera difficile de faire la distinction. »

    Comme l’explique également Gary Marcus :

    Galactica présente de sérieux problèmes :

    – il n’est pas contraint par les faits qui sont dans sa base de données (par exemple, il a écrit que Elon Musk était mort en 2018 dans un accident de voiture mais il dispose probablement de données qui disent le contraire)

    – il ne donne aucune indication quand il invente des choses qui ne sont pas dans sa base de données

    Yann LeCun, Chief AI Scientist chez Meta et détenteur du fameux prix Turing, a réagit à ces critiques sur Twitter en disant qu’il ne voyait pas où était le mal, que ce n’était qu’une démo, qu’il ne comprenait pas en quoi cela pouvait être dangereux.

    Pourtant, Galactica a rapidement été débranchée et ne sera restée en ligne que 3 jours.

    L’IA peut-elle réellement explorer voire produire du savoir scientifique aujourd’hui ?

    La proposition de départ avait de quoi allécher les scientifiques : faire la synthèse d’une littérature parfois difficile à explorer. Ce sera donc pour une autre fois…

    En attendant, il existe d’autres outils, moins ambitieux, mais plus pertinent. Pour n’en citer qu’un, Scite.ai explore les corpus d’articles afin d’en étudier les citations. Et c’est déjà extrêmement utile :

    • qui cite qui ?
    • quel article confirme ou infirme telle théorie ?
    • y a-t-il des « réseaux » de bibliographie thématique ?
    • quels sont les articles les plus influents dans une certaine sphère ?

    Le site est maintenant payant (…. contrairement à sa version d’origine, qui, elle, était gratuite…), mais vous pouvez créer un compte pour avoir accès à 15 jours d’essais.

    Et pour ce qui est de produire de la science en utilisant l’IA, cet article de Nature présente des exemples réels de champs d’application, féconds, et pertinents; tandis que celui-ci, toujours dans Nature, fait le point sur l’enjeu d’explicabilité des IA dans le contexte particulier de la Science.

    L’IA qui « fait Science » toute seule, ça ne sera donc pas aujourd’hui. Mais peut-être, demain…

    Sources :

    • https://galactica.org/
    • https://paperswithcode.com/paper/galactica-a-large-language-model-for-science-1
    • https://twitter.com/search?q=Galactica&src=spelling_expansion_revert_click
  • Pas encore né·e·s ou déjà mort·e·s ? Simulations, civilisations et fantômes virtuels

    Pas encore né·e·s ou déjà mort·e·s ? Simulations, civilisations et fantômes virtuels
    L'actrice Chloë Grace Moretz portant un casque de réalité virtuelle dans la série The Peripheral sur Amazon Prime Video.
    L’actrice Chloë Grace Moretz portant un casque de réalité virtuelle dans la série The Peripheral sur Amazon Prime Video.

    Un article de Joshua Rothman dans le NewYorker à consulter sur ce lien (magazine que j’aime beaucoup pour la pertinence de ses sujets et la richesse de ses informations, le tout agrémenté d’un ton satirique et/ou décalé) daté de 2016 nous invite à nous poser cette question pas si saugrenue : serait-il possible que nous vivions en réalité dans une simulation numérique ?

    Cette question intéresse non seulement les auteur·ices de science-fiction, mais aussi les philosophes tels que Nick Bostrom, prospectiviste de la très vénérable université d’Oxford. Elle repose sur les postulats suivants :

    • Il est possible de simuler un cerveau (neurones, synapses, courants électriques, échanges d’information), et j’ajoute : de fabriquer un corps (capteurs-sens, câbles-nerfs, actionneurs-muscles…) ; ou du moins on peut imaginer pouvoir le faire dans un futur proche, grâce aux progrès technologiques notamment en termes de puissance de calcul. Jusqu’à preuve du contraire, on n’a pas encore réussi à démontrer que la conscience est autre chose qu’une propriété émergent dudit cerveau-corps. La création d’un cerveau-corps artificiel pourrait donc être nécessaire et suffisante à l’émergence d’une forme de conscience.
    • De futures civilisations ayant accès à ces technologies pourraient tout à fait être tentées de faire des simulations de civilisations passées (au hasard : que se passerait-il si une civilisation décidait de privilégier les intérêts économiques au détriment de la gestion de l’urgence écologique ? … mais je m’égare).

    Il suffit que deux simulations existent pour qu’entre 2 réalités et une fiction… nous ayons plus de chances de faire partie de la fiction que de la réalité. Nous pourrions donc nous-mêmes être des créatures virtuelles conscientes, en train de vivre une simulation.

    Pourquoi réchauffer maintenant cet article, me direz-vous ? C’est en regardant la série Peripheral – Les Mondes de Flynne, actuellement en diffusion payante sur Amazon Prime, que j’ai repensé à cette phrase de l’article : « we are, in fact, digital beings living in a vast computer simulation created by our far-future descendants ». (Ne vous inquiétez pas, je ne suis pas en train de spoiler !)

    La bande-annonce de la série The Peripheral, à regarder sur Prime Video. Chaudement recommandée par la rédaction !

    Par ailleurs, cette notion de simu de civilisation fait aussi écho aux récentes déclaration des autorités du Tuvalu, état et archipel polynésien e 9 îles aux 12000 habitant-e-s situé dans le Pacifique Sud.

    Simon Kofe, le ministre des Affaires étrangères de Tuvalu, avait déjà enregistré sa déclaration de la COP26 les pieds dans l’eau afin de sensibiliser au danger imminant d’immersion qui menace son pays.

    Cet état, le premier menacé par la montée des eaux imputable au réchauffement climatique, risque d’être submergé entièrement à la fin du siècle. Pendant la COP27, le ministre des Affaires Etrangères Simon Kofe a indiqué leur projet, pour préserver la culture et le patrimoine du pays, de devenir la première nation entièrement digitalisée dans le Metaverse. Pour en savoir plus, c’est ici en français, ou là en anglais.

    Mais si nous sommes « les vrai·e·s », celleux qui vivent avec au moins un pied dans le réel, parfois dramatique, de l’autre côté du miroir il y a aussi « les autres », des robots, des créatures virtuelles, qui, conscientes ou non, existent déjà. Parmi elles, on peut compter les agents conversationnels, plus communément appelés « chatbots » (pour chatting robot, littéralement « robot qui papote »). Certains agents conversationnels sont programmés de façon à imiter le style d’une personne en particulier. Quand le modèle est une personne décédée, on parle de « deadbot ».

    Le 7 novembre dernier, la revue de presse de Claude Askolovitch sur France Inter raconte une étrange histoire, celle de Jessica et Joshua. Plutôt que de faire un vilain résumé de résumé, je reprends les si jolis mots du chroniqueur :

    « Dans la revue XXI, vous lirez un couple non pas de scène mais de vie, et que la mort a séparé si tôt… Jessica est morte d’une maladie rare âgée de 23 ans et après elle son fiancée Joshua n’a plus vraiment vécu… Huit ans plus tard, une intelligence artificielle a rendu Jessica à Joshua, un programme expérimental capable de manier le langage humain avec des personnalités, des subtilités des étonnements, que Joshua a nourri de tout ce qu’avait été Jessica, -sen sont suivi des conversations troublantes poignantes entre Joshua et la Jessica recréée, lui : c’est de la magie, elle, je n’aime pas la magie, où suis-je, lui où as-tu l’impression d’être, elle partout et nulle part… Le double cyber de Jessica a fini par s’éteindre, s’éteint faute de batterie, elle est partie disant « bonne nuit je t’aime », Joshua va mieux, vous apprendrez que les fantômes cyber dorment aussi, et vous serez, ou bien plombés par l’irréalité, ou bien légers comme devant un ballet. »

    Ce résumé m’a interpellé : j’ai voulu en savoir plus… N’ayant pas trouvé cet article au format numérique (seulement le lien pour acheter le numéro papier de la revue XXI), j’ai fait une recherche plus large et ai retrouvé la publication originelle de Jason Fagon dans le San Francisco Chronicle en 2021, série d’articles qui ressemble à une fiction et qui, pourtant, est bel et bien un reportage.

    Dans cet interview au Nieman Storyboard, publication de la Fondation Nieman pour le Journalisme à Harvard qui s’intéresse particulièrement au journalisme narratif et au story-telling informationnel, le journaliste témoigne du processus d’écriture de cette incroyable série d’article. Je m’arrêterai un instant sur l’extrait suivant :

    « In the end, he only asked me to cut a single sentence. It was part of seed text, the “intro paragraph,” that he used to create the Jessica bot. He said he was concerned that other people would enter the same text into the website and make their own versions of her, which felt strange to him, and I agreed to replace that one sentence with ellipses. »

    « A la fin, [Joshua] m’a seulement demandé de couper une unique phrase. Elle faisait partie du texte-seed, le « paragraphe d’intro » qu’il a utilisé pour créer le chatbot Jessica. Il m’a dit qu’il s’inquiétait de la possibilité que d’autres personnes utilisent le même texte dans le site web [Project December, voir ci-dessous] et créent leurs propres versions de Jessica, ce qui lui semblait vraiment bizarre ; et j’ai consenti à remplacer cette phrase par des ellipses.  »

    Rien n’indique que la Jessica virtuelle était pourvue de conscience, mais le récit interpelle. Au regard de la réflexion de Bostrom, si nous pouvons être une simulation de civilisation, nous pourrions tout aussi bien être une simulation « d’autre chose » : la prolongation d’un être cher est également une possibilité.

    Le Project December existe bel et bien : il vous permet, pour la modique somme de 10 dollars de ressuciter vos mort·e·s.

  • [Veille] L’IA pour le meilleur et le pire : lire dans vos pensées, jouer à Pong, faire vos devoirs

    [Veille] L’IA pour le meilleur et le pire : lire dans vos pensées, jouer à Pong, faire vos devoirs

    Meta AI peut lire dans vos pensées

    Les équipes de Meta/Facebook qui travaillent sur l’Intelligence Artificielle ont réussi à décoder des pensées à partir d’enregistrements cérébraux non invasifs.

    Pour en savoir plus : https://www.wedemain.fr/inventer/transcrire-votre-activite-cerebrale-en-langage-audio-meta-ai-y-travaille-activement/

    En replay sur Arte, l’intelligence artificielle, pour le meilleur ou pour le pire

    Deux documentaires sont disponibles en replay sur Arte.tv :

    Autopsie d’une intelligence artificielle, de Cécile Dumas et Jean-Christophe Ribot (Fr., 2022, 55 min). Sur Arte.tv jusqu’au 13 décembre.

    https://youtu.be/QQkleleBnZQ

    Intelligence artificielle, quand les émotions s’en mêlent, de Rebecca Snow (Can., 2021, 52 min). Sur Arte.tv jusqu’au 20 décembre.

    https://youtu.be/jrbKmnfwqhc

    Source : https://www.lemonde.fr/culture/article/2022/10/22/sur-arte-l-intelligence-artificielle-dans-tous-ses-etats-pour-le-meilleur-ou-pour-le-pire_6146948_3246.html?utm_source=pocket_mylist

    Des neurones dans une boite de Pétri apprennent à jouer à Pong

    Les neurones joueurs ne répondent pas aux signaux visuels sur un écran mais aux signaux électriques d’électrodes. Ces électrodes stimulent à la fois les cellules et enregistrent les modifications de l’activité neuronale. Les chercheurs ont ensuite converti les signaux de stimulation et les réponses cellulaires en une représentation visuelle du jeu.

    Pour en savoir plus : https://cerveauxetrobots.wordpress.com/2022/11/07/des-cellules-souches-aux-assembloides-humains-nouvelles-frontieres-de-la-conscience/

    Source : https://www.sciencedirect.com/science/article/pii/S0896627322008066

    Les étudiants utilisent des IA pour faire leurs devoirs

    Une dissertation à faire ? Pas de problème, il suffit de donner quelques instructions à une IA pour qu’elle fasse le travail à la place de l’étudiant. Etant donné que le texte n’est pas copié mais une production originale d’une IA, les outils anti-plagiat ne peuvent détecter la fraude.

    En savoir plus : https://www.vice.com/fr/article/m7g5yq/surprise-les-etudiants-se-servent-de-lia-pour-faire-leurs-devoirs?utm_source=pocket_mylist

  • [Essai] Pop & Psy, de Jean-Victor Blanc

    [Essai] Pop & Psy, de Jean-Victor Blanc

    L’actu : Cycle de conférences « Culture pop et psychiatrie », du samedi 19 novembre 2022 au vendredi 30 juin 2023, Au Mk2 Beaubourg à Paris

    Pop & Psy est le titre de l’ouvrage écrit par le Dr Jean-Victor Blanc, psychiatre, initialement publié en 2019 chez Plon. Il a pour objectif de représenter différentes notions de psychiatrie en utilisant des références à la pop-culture : stars du cinéma, de la chanson ou d’internet, personnages de séries ou de film, ils et elles sont abondamment convoquées au fil des pages. On trouvera à la fois des informations sur le système de prise en charge des troubles psys en France, des chapitres consacrés à des pathologies (trouble bipolaire, dépression, dépression du post-partum…) ou à des thérapies (antidépresseurs, électroconvulsivothérapie, soins sous contraintes…) – j’allais dire « parfois effrayantes pour le grand public », mais en fait, c’est souvent tout le champ psychiatrique qui effraie. Et c’est en cela que réside l’intérêt de ce livre…

    On peut ne pas aimer le style avec ses références pop à tout bout de phrase, parfois un peu forcées (je laisse le bénéfice du doute à l’auteur et mets ça sur le compte de l’éditeur-ice !). Mais en faisant appel à la pop-culture, et au monde du spectacle, c’est justement, en filigrane, les représentations de la psychiatrie que l’on discute : invoquer la société de l’image permet la réflexion sur l’image (des pathologies, des patient-e-s, des soignant-e-s, des thérapies) dans la société, pour une jolie mise en boîte.

    J’ai laissé le livre traîner sur la table du salon, ce qui n’a pas manqué de susciter les questions de mes enfants (5 & 7 ans) : « C’est qui ces gens sur la couverture ? Ah, ils sont malades ? C’est quoi l’histoire ? » Et c’est partie pour expliquer les troubles psychiatriques avec des mots d’enfants … pas super évident, j’ai d’ailleurs proféré quelques âneries :

    « – Tu vois, par exemple, cette dame-là, elle a eu une maladie qui s’appelle la dépression.

    – Maman, c’est quoi la dépression ?

    – La dépression, c’est quand on croit que la vie est horriblement nulle, qu’on n’arrive plus à rien et que…

    – Mais maman, ça c’est pas une maladie, c’est une croyance ! »

    Et paf, direct on rentre dans le dur. Les enfants ont le don de mettre le doigt là où ça fait mal, c’est-à-dire, en l’occurrence, sur l’image que l’on convoie des troubles psychiatriques, parfois sans le vouloir : non, ce ne sont pas des croyances. Il ne suffit pas de croire en sa guérison, de « se secouer », de manger bio ou faire du sport pour se soigner…

    Bref, si vous voulez en savoir plus, expliqué par des personnes qui s’y prennent probablement mieux que moi, vous pouvez lire ce livre, mais aussi assister au cycle de conférences Culture Pop & Psychiatrie (payantes) de l’auteur au Mk2 Beaubourg à Paris, à partir de ce samedi 19 novembre 2022. Est-ce qu’il s’agit de gagner des sous ? Peut-être. En tout cas mes collègues psychiatres trouvent ça pertinent pour parler de santé mentale au grand public, et c’est ça le plus important.

    A savoir aussi, l’auteur a été à l’origine d’un festival du même nom qui a eu lieu pour la première fois en octobre 2022. On attend la prochaine édition avec impatience !

    Référence : Pop & Psy, Jean-Victor Blanc, Plon, 2019 réédité en 2022 et disponible notamment sur la Fnac, et sur Momox.

    Notre avis :

    Note : 4 sur 5.

    A lire, à faire lire si : vous voulez vous informer de façon ludique ; vous voulez changer l’image des troubles mentaux dans votre entourage (coucou tata qui ne veut pas comprendre qu’un trouble peut être une vraie maladie, qu’être malade ne signifie pas être condamné à rater sa vie, que les médicaments ne sont pas « de la drogue », et qu’enfin n’importe qui peut être concerné un jour…)

  • Des cultures cellulaires aux assembloïdes cérébraux humains, nouvelles frontières de la conscience

    Des cultures cellulaires aux assembloïdes cérébraux humains, nouvelles frontières de la conscience

    L’actu de départ : la startup australienne CorticalLabs affirme avoir appris à un amas de cellules à jouer à Pong, le célèbre jeu vidéo rétro. L’étude scientifique a été publiée ici, dans l’excellente revue Neuron, pour celleux qui lisent l’anglais scientifique. Le magazine Science et Avenir relate cette prouesse en français.

    Coupe transversale d’un organoïde cérébral complet montrant différentes régions du cerveau. Les cellules sont représentées en bleu, les cellules souches neurales en rouge et les neurones en vert. Source Wikimedia

    Mais de quoi parle-t-on exactement ? Cet « amas», ce « blob », comme on dirait en anglais, est constitué de cellules nerveuses organisées en un système biologique. Dans le cas le plus simple, un système de ce type s’appelle un organoïde. Lorsque des organoïdes sont rassemblés, organisés en 3D, et constitués différents types de cellules, on peut parler également d’assembloïde. Dans le cas qui nous occupe, on a un mini-organe simplifié : un mini-cerveau. Sur le même principe, on peut réaliser aussi des mini-foies, des mini-cœurs…Si vous voulez en savoir plus :

    • le poster suivant explique la formation de différents types d’assembloïdes, et ce à quoi ils peuvent servir ;
    • cet article de Nature proposait en septembre dernier quelques clarifications sur ces différents types d’assembloïdes et leur classification ;
    • ce récap, toujours dans Nature, raconte la genèse de ce type de recherches.

    Mais si ces organoïdes, petits cerveaux de synthèse, sont capables de percevoir et traiter l’information de leur environnement pour y répondre par un comportement apparemment intelligent… pourraient-ils avoir une conscience ? Pourraient-ils souffrir ? De toutes nouvelles questions éthiques se posent, et certains scientifiques ont déjà tiré la sonnette d’alarme. Par ailleurs, pour créer des organoïdes, il faut des cellules. Ces cellules sont aujourd’hui fournies gracieusement par des donneuses, des donneurs qui pourraient s’opposer à l’idée que l’on crée à partir d’eux-mêmes des créatures, si ce n’est conscientes, du moins sentientes.
    La revue de littérature scientifique suivante propose de récapituler l’ensemble des questionnements éthiques liés à la création d’organoïdes, et consacre un chapitre entier au cas particulier des mini-cerveaux. Les organoïdes cérébraux sont capables de s’organiser et, entre autres, d’avoir in-vitro une activité électrique spontanée comparable à celles de bébés prématurés. Quel statut moral devrions-nous leur accorder ? Quelles seraient les expérimentations conformes à l’éthique ? Comment mesurer un niveau de douleur « acceptable » ? Si ces organoïdes pouvaient acquérir un statut moral, les donneur-ses pourraient-ils retirer le consentement qu’ils ont donné pour continuer les expériences ?


    C’est ainsi que des scientifiques se penchent maintenant sur des tests standardisés pour « mesurer la conscience »… ce qui fera l’objet d’une autre revue !

    Image extraite du film Blade Runner de Ridley Scott sorti 1982, dans lequel le personnage joué par Harrisson Ford administre le test « Voight-Kampff » à des androïdes afin de les distinguer des humains en mesurant leur degré d’empathie. Retrouvez ce film en VOD payante par exemple ici ou .

  • [Veille] Des chimères humain-rat pour soigner les troubles psychiatriques

    [Veille] Des chimères humain-rat pour soigner les troubles psychiatriques

    Photo by Pixabay on Pexels.com

    Une équipe de l’université de Stanford, en Californie, a réussi l’implantation de groupes de cellules nerveuses humaines dans le cerveau de jeunes rats. Ces cellules constituent des organoïdes cérébraux, c’est-à-dire des « mini-cerveaux » pouvant notamment éprouver des « sensations simples » en réponse à des stimulations extérieures. Cette expérimentation constitue un espoir pour la recherche sur de nouveaux traitements en psychiatrie.

    La publication scientifique (de prestige, étant donné le sujet et sa portée scientifique) est ici, dans Nature. France Info explique ici, en français et à destination du grand public, la prouesse technique et les enjeux.

  • IA & (manque de) Conscience : quels problèmes cela soulève-t-il ?

    IA & (manque de) Conscience : quels problèmes cela soulève-t-il ?
    Image générée par IA
    Image générée par IA / https://stablediffusionweb.com/

    Les machines pourraient un jour devenir conscientes, avec des conséquences catastrophiques. Pour le moment, elles n’en ont pas, et c’est aussi un problème car elles manquent de morale et de doute.

    Les machines ne sont, pour l’instant, pas conscientes. Le débat fait rage chez les experts : est-il possible d’atteindre un jour la singularité, c’est-à-dire une forme de conscience chez les machines dotées des IA les plus avancées ? Il faudrait déjà s’entendre sur le concept de conscience et plus particulièrement sur le “problème difficile de la conscience” (“Hard problem of consciousness) tel que présenté par David Chalmers, philosophe de l’esprit.

    La conscience, qu’est-ce que c’est ? Référons-nous au CNRTL “Organisation du psychisme d’un individu qui, en lui permettant d’avoir connaissance de ses états, de ses actes et de leur valeur morale, lui permet de se sentir exister, d’être présent à lui-même.

    Le problème difficile de la conscience, quant à lui, désigne le problème de l’origine des qualia, c’est à dire du contenu subjectif de l’expérience d’un état mental, et divise les philosophes sur la question de savoir si l’esprit est séparé du corps (dualité corps-esprit) ou bien s’ils ne font qu’un (monisme). Je ne vais pas rentrer dans les détails de ces concepts, qui, bien que fascinants, seraient trop longs à expliquer. Si vous voulez en apprendre plus sur le sujet, je vous recommande l’excellent MOOC “Minds and Machines” du MIT. Celui-ci explique parfaitement bien les différents problèmes et courants de pensée philosophiques sur le sujet.

    Sans cette compréhension claire du phénomène de la conscience, comment pourrons-nous détecter qu’une machine atteint une forme d’intelligence consciente ?

    Cette question est légitime car de nombreux experts estiment que des systèmes basés sur l’IA pourraient probablement atteindre les capacités humaines d’ici 2040–2050, et très certainement d’ici 2075. (Source : Future Progress in Artificial Intelligence: A Survey of Expert Opinion)

    Cela soulève de nombreuses inquiétudes, en particulier la fameuse “singularité”. David Chalmers l’explique dans son papier “The Singularity: A Philosophical Analysis” : “Que se passera-t-il quand les machines deviendront plus intelligentes que les êtres humains ? Il y a une possibilité pour que cet évènement soit suivi d’une explosion de plus grands niveaux d’intelligence, puisque chaque génération de machine créera des machines plus intelligentes à leur tour. Cette explosion d’intelligence est maintenant souvent nommée la “singularité”.

    Cette singularité est souvent associée avec une fin du monde, comme plusieurs experts le craignent, tels que Elon Musk, Stephen Hawking, Nick Bostrom.

    Heureusement, d’autres experts sont plus sceptiques quant à cette prédiction et doutent fortement qu’elle puisse se réaliser un jour.

    Pour l’heure, les IA ne sont pas conscientes, et ironiquement, cela fait partie des raisons pour lesquelles on ne peut pas totalement leur faire confiance, un problème qui pour le coup est d’actualité.

    Comme le dit Daniel Dennett, un autre fameux philosophe de l’esprit, dans son ouvrage “ From Bacteria to Bach and Back: The Evolution of Minds “ : “Le réel danger, je pense, n’est pas que les machines plus intelligentes que nous usurperont notre rôle comme capitaines de nos destins, mais que nous allons surestimer notre compréhension des derniers outils, leur cédant prématurément notre autorité, bien au-delà de leurs réelles compétences.

    Les IA sont déjà omniprésentes dans nos quotidiens, et force est de constater que nous leur faisons trop confiance, non sans conséquences :

    Malheureusement, les machines n’étant pas conscientes, elles sont également dépourvues de valeurs moralesSelon la philosophe Carissa Véliz, avoir des capacités morales est dépendant du fait d’être sentient (capacité d’éprouver des choses subjectivement, d’avoir des expériences vécues). Les algorithmes étant dépourvus de sentience ne peuvent par conséquent ni être autonomes, ni tenus pour responsables de quoi que ce soit : “ils leur manquent la compréhension morale nécessaire pour être responsables moralement. Pour comprendre ce que cela signifie d’infliger de la douleur à quelqu’un, il est nécessaire de connaitre et d’avoir expérimenté de la douleur. Au mieux, pour un algorithme qui ne ressent rien, les “valeurs” seront des items dans une liste, potentiellement priorisée selon des poids. Mais des entités qui ne peuvent pas ressentir ne peuvent pas évaluer moralement, et des choses qui ne peuvent pas évaluer moralement ne peuvent pas agir de façon morale.”

    Selon Stephen Fleming, un neuroscientifique, ce qui manque aux machines c’est le doute : les machines “ne savent pas ce qu’elles ne savent pas, une capacité que les psychologues appellent la métacognition. La métacognition est la capacité de penser à propos de ses propres pensées — de reconnaitre quand on peut se tromper, par exemple, ou quand il serait préférable de chercher une seconde opinion”.

    Les chercheurs en Intelligence Artificielle savent depuis un moment que les machines ont tendance à être beaucoup trop confiantes dans leurs résultats. Par exemple, lorsqu’elles font face à quelque chose d’inédit, elles vont prédire un résultat complètement erroné avec un haut niveau de confiance, plutôt que d’admettre leurs limites.

    Des chercheurs proposent d’intégrer une capacité introspective aux robots : leur permettre d’identifier leur probabilité d’être justes avant de prendre une décision, plutôt qu’après, en évaluant le niveau de confiance, notamment en réalisant qu’une situation n’avait jamais été vue précédemment. Simuler la métacognition et le doute dans les machines permettraient d’améliorer la confiance que nous pouvons leur porter.

    Cette approche est celle également adoptée par des chercheurs du MIT qui ont développé une technique permettant à un réseau de neurones de donner une prédiction accompagnée d’un niveau de confiance. “Le niveau de confiance donné par le réseau de neurones peut être la différence entre un véhicule autonome déterminant que ‘tout est ok pour traverser cette intersection’ et ‘c’est probablement ok, mais arrêtons-nous quand même au cas où’.

    Le fait que les IA ne soient pas conscientes, et donc non dotées de valeurs morales ni de doutes, est un problème à l’heure actuelle. Mais le fait que les machines pourraient acquérir une forme de conscience serait un grave problème également, et que nous ne saurions pas forcément détecter. Dans les deux cas, les travaux sur l’éthique et les IA sont essentiels et on ne peut que s’alarmer du fait que Google ait récemment viré la responsable de leur département Ethique… Heureusement, la Commission Européenne a commencé à se saisir de ces sujets, et une proposition de règlements a été déposée le 21 avril 2021, même s’il reste encore beaucoup à faire.

    Sources :

%d blogueurs aiment cette page :