
La promesse des neurotechnologies d’améliorer notre vie est de plus en plus grande. Mais avons-nous besoin d’un nouvel ensemble de droits pour protéger l’intégrité de nos esprits ? »Le crâne fait office de bastion de la vie privée ; le cerveau est la dernière partie privée de nous-mêmes », déclare depuis New York le neurochirurgien australien Tom Oxley.
M. Oxley est le PDG de Synchron, une société de neurotechnologie née à Melbourne qui a testé avec succès des implants cérébraux de haute technologie permettant aux gens d’envoyer des courriels et des textes par la seule pensée.
En juillet de cette année, elle est devenue la première entreprise au monde, devant des concurrents comme Neuralink d’Elon Musk, à obtenir l’autorisation de la Food and Drug Administration (FDA) de mener des essais cliniques d’interfaces cerveau-ordinateur (ICO) sur des humains aux États-Unis.
Synchron a déjà réussi à introduire des électrodes dans le cerveau de patients paralysés via leurs vaisseaux sanguins. Les électrodes enregistrent l’activité cérébrale et transmettent les données sans fil à un ordinateur, où elles sont interprétées et utilisées comme un ensemble de commandes, permettant aux patients d’envoyer des courriels et des textes.
Les ICB, qui permettent à une personne de contrôler un appareil par le biais d’une connexion entre son cerveau et un ordinateur, sont considérées comme un changement de cap pour les personnes souffrant de certains handicaps.
« Personne ne peut voir à l’intérieur de votre cerveau », dit Oxley. « Ce sont seulement nos bouches et nos corps qui bougent qui indiquent aux gens ce qui se trouve à l’intérieur de notre cerveau… Pour les personnes qui ne peuvent pas faire cela, c’est une situation horrible. Ce que nous faisons, c’est essayer de les aider à faire sortir ce qu’il y a dans leur crâne. Nous sommes totalement concentrés sur la résolution des problèmes médicaux. »
Les ICB font partie d’une série de technologies en développement centrées sur le cerveau. La stimulation cérébrale en est une autre, qui délivre des impulsions électriques ciblées au cerveau et est utilisée pour traiter les troubles cognitifs. D’autres, comme les techniques d’imagerie IRMf et EEG, permettent de surveiller le cerveau en temps réel.
« Le potentiel des neurosciences pour améliorer nos vies est presque illimité », déclare David Grant, chercheur principal à l’université de Melbourne. « Cependant, le niveau d’intrusion qui serait nécessaire pour concrétiser ces avantages… est profond ».
Les préoccupations de David Grant concernant la neurotechnologie ne portent pas sur le travail d’entreprises comme Synchron. Les corrections médicales réglementées pour les personnes souffrant de handicaps cognitifs et sensoriels ne sont pas controversées, à ses yeux.
Mais que se passerait-il, demande-t-il, si ces capacités passaient de la médecine à un monde commercial non réglementé ? C’est un scénario dystopique qui, selon Grant, conduirait à « une détérioration progressive et implacable de notre capacité à contrôler nos propres cerveaux ».
Et si cette progression reste hypothétique, elle n’est pas impensable. Dans certains pays, les gouvernements prennent déjà des mesures pour protéger les humains contre cette éventualité.

Sommaire
Un nouveau type de droits
En 2017, un jeune bioéthicien européen, Marcello Ienca, anticipait ces dangers potentiels. Il a proposé une nouvelle classe de droits juridiques : les neurodroits, la liberté de décider qui est autorisé à surveiller, lire ou modifier votre cerveau.
Aujourd’hui, Ienca est professeur de bioéthique à l’ETH Zurich, en Suisse, et conseille le Conseil européen, les Nations unies, l’OCDE et les gouvernements sur l’impact que la technologie pourrait avoir sur notre sens de l’être humain.
Avant que Ienca ne propose le concept de neurodroits, il en était déjà venu à penser que le caractère sacré de nos cerveaux devait être protégé contre les progrès de la neurotechnologie.
« En 2015, à cette époque, le débat juridique sur les neurotechnologies était principalement axé sur le droit pénal », explique M. Ienca.
Une grande partie du débat était théorique, mais les ICB faisaient déjà l’objet d’essais médicaux. Les questions que M. Ienca entendait il y a six ans étaient les suivantes : « Que se passe-t-il lorsque l’appareil fonctionne mal ? Qui en est responsable ? Devrait-il être légitime d’utiliser la neurotechnologie comme preuve dans les tribunaux ? »
Ienca, alors âgé d’une vingtaine d’années, pensait que des questions plus fondamentales étaient en jeu. La technologie conçue pour décoder et modifier l’activité cérébrale avait le potentiel d’affecter ce que cela signifiait d’être « une personne individuelle par opposition à une non-personne ».
Si l’humanité a besoin d’être protégée contre l’utilisation abusive des neurotechnologies, les droits des neurosciences sont « également un moyen de donner du pouvoir aux gens, de leur permettre de s’épanouir et de promouvoir leur bien-être mental et cérébral grâce à l’utilisation des neurosciences et des neurotechnologies avancées ».
Selon M. Ienca, les droits neurologiques constituent une force positive et protectrice.
C’est un point de vue que partage Tom Oxley. Il estime que l’arrêt du développement des BCI constituerait une atteinte injuste aux droits des personnes que sa société tente d’aider.
« La possibilité d’envoyer un message texte est-elle une expression du droit de communiquer ? » demande-t-il. Si la réponse est oui, dit-il, le droit d’utiliser un BCI pourrait être considéré comme un droit numérique.
M. Oxley est d’accord avec M. Grant pour dire que la confidentialité future de nos cerveaux mérite toute l’attention du monde. Il estime que les droits neurologiques sont « absolument essentiels ».
« Je reconnais que le cerveau est un endroit très privé et que nous sommes habitués à ce qu’il soit protégé par notre crâne. Ce ne sera plus le cas avec cette technologie. »
Grant pense que les droits neurologiques ne suffiront pas à protéger notre vie privée contre la portée potentielle des neurotechnologies en dehors de la médecine.
« Notre notion actuelle de la vie privée sera inutile face à une intrusion aussi profonde », dit-il.
Des produits commerciaux tels que des casques qui prétendent améliorer la concentration sont déjà utilisés dans les salles de classe chinoises. Des casques permettant de suivre la fatigue des chauffeurs routiers ont été utilisés sur des sites miniers en Australie. Les appareils de ce type génèrent des données à partir de l’activité cérébrale des utilisateurs. Selon M. Grant, il est difficile de savoir où et comment ces données sont stockées, et encore plus difficile de les contrôler.
Pour Grant, la quantité d’informations que les gens partagent déjà, y compris les données neurologiques, constitue un défi insurmontable pour les droits neurologiques.
« Il est naïf de penser que nous pouvons régler ce problème en adoptant une loi ».
Les solutions de Grant au potentiel intrusif de la neurotechnologie, admet-il, sont radicales. Il envisage le développement d' »algorithmes personnels » qui fonctionnent comme des pare-feu hautement spécialisés entre une personne et le monde numérique. Ces codes pourraient s’engager dans le monde numérique au nom d’une personne, protégeant son cerveau contre toute intrusion ou altération.
Les conséquences du partage des données neurologiques préoccupent de nombreux éthiciens.
« Je veux dire que le cerveau est au cœur de tout ce que nous faisons, pensons et disons », déclare Stephen Rainey, du Centre Uehiro d’éthique pratique d’Oxford.
« Ce n’est pas comme si vous vous retrouviez avec ces dystopies ridicules où des gens contrôlent votre cerveau et vous font faire des choses. Mais il y a des dystopies ennuyeuses… Vous regardez les entreprises qui s’intéressent aux [données personnelles] et ce sont Facebook et Google, principalement. Ils essaient de faire un modèle de ce qu’est une personne afin de pouvoir l’exploiter. «
Des mesures pour réglementer
Le Chili ne prend aucun risque face aux risques potentiels des neurotechnologies.
Dans une première mondiale, en septembre 2021, les législateurs chiliens ont approuvé un amendement constitutionnel visant à consacrer l’intégrité mentale comme un droit de tous les citoyens. Des projets de loi visant à réglementer les neurotechnologies, les plateformes numériques et l’utilisation de l’IA sont également en cours d’élaboration au sénat chilien. Les principes des neurodroits que sont le droit à la liberté cognitive, la vie privée mentale, l’intégrité mentale et la continuité psychologique seront pris en compte.
L’Europe s’oriente également vers les neurodroits.
La France a approuvé cette année une loi sur la bioéthique qui protège le droit à l’intégrité mentale. L’Espagne travaille à l’élaboration d’un projet de loi sur les droits numériques comprenant une section sur les droits neurologiques, et l’autorité italienne de protection des données examine si la vie privée mentale relève des droits à la vie privée du pays.
L’Australie est signataire de la recommandation non contraignante de l’OCDE sur l’innovation responsable en matière de neurotechnologie, qui a été publiée en 2019.

Promesses, panique et risques potentiels
Le neuroscientifique et éthicien australien, le professeur adjoint Adrian Carter, de l’université Monash de Melbourne, est décrit par ses pairs comme ayant un « bon détecteur de BS » pour les menaces réelles et imaginaires posées par les neurotechnologies. Se décrivant comme un « éthicien spéculatif », il examine les conséquences potentielles du progrès technologique.
Le battage médiatique qui consiste à vendre à outrance les traitements neurologiques peut nuire à leur efficacité si les attentes des patients sont trop élevées, explique-t-il. Le battage médiatique peut également provoquer une panique injustifiée.
« Beaucoup de choses dont on parle sont loin d’être réalisables, si tant est qu’elles le soient », déclare M. Carter.
« La lecture des pensées ? Cela n’arrivera pas. Du moins pas de la manière dont beaucoup l’imaginent. Le cerveau est tout simplement trop complexe. Prenez les interfaces cerveau-ordinateur : oui, les gens peuvent contrôler un appareil en utilisant leurs pensées, mais ils doivent s’entraîner pour que la technologie reconnaisse des schémas spécifiques d’activité cérébrale avant de fonctionner. Il ne suffit pas de penser ‘ouvre la porte’ pour que cela se produise ».
Carter souligne que certaines des menaces attribuées à la neurotechnologie future sont déjà présentes dans la façon dont les données sont utilisées par les entreprises technologiques au quotidien.
L’IA et les algorithmes qui lisent les mouvements des yeux et détectent les changements de couleur et de température de la peau lisent les résultats de l’activité cérébrale dans des études contrôlées à des fins publicitaires. Ces données sont utilisées par des intérêts commerciaux depuis des années pour analyser, prédire et influencer les comportements.
« Des entreprises comme Google, Facebook et Amazon ont gagné des milliards grâce aux [données personnelles] », souligne Carter.
Les dystopies qui émergent des données collectées sans consentement ne sont pas toujours aussi ennuyeuses que les publicités Facebook.
Stephen Rainey, d’Oxford, évoque le scandale de Cambridge Analytica, où les données de 87 millions d’utilisateurs de Facebook ont été collectées sans leur consentement. La société a établi des profils psychologiques d’électeurs basés sur les goûts des gens, afin d’alimenter les campagnes politiques de Donald Trump et Ted Cruz.
« C’est cette ligne où cela devient un intérêt commercial et où les gens veulent faire autre chose avec les données, c’est là que tout le risque intervient », dit Rainey.
« Cela amène toute cette économie des données dont nous souffrons déjà directement dans l’espace neuro, et il y a un potentiel d’utilisation abusive. Je veux dire qu’il serait naïf de penser que les gouvernements autoritaires ne seraient pas intéressés. »
Tom Oxley dit qu’il n’est « pas naïf » quant au potentiel d’utilisation abusive par des acteurs malveillants des recherches que lui et d’autres font dans le domaine de la BCI.
Il souligne que le financement initial de Synchron provenait de l’armée américaine, qui cherchait à développer des bras et des jambes robotisés pour les soldats blessés, actionnés par des puces implantées dans leur cerveau.
Bien que rien ne laisse entendre que les États-Unis envisagent d’utiliser cette technologie à des fins militaires, M. Oxley estime qu’il est impossible d’ignorer la toile de fond militaire. « Si l’ICB finit par être utilisée comme arme, le cerveau est directement relié à une arme », explique M. Oxley.
Le gouvernement américain semble avoir pris conscience de ce potentiel. Son Bureau de l’industrie et de la sécurité a publié le mois dernier un mémo sur la perspective de limiter les exportations de technologie BCI depuis les États-Unis. Reconnaissant ses usages médicaux et de divertissement, le bureau s’inquiète de son utilisation par les militaires pour « améliorer les capacités des soldats humains et dans les opérations militaires sans pilote ».

Cela peut changer la vie
Les inquiétudes quant à l’utilisation abusive de la neurotechnologie par des acteurs malveillants n’enlèvent rien aux résultats déjà obtenus dans le domaine médical.
Au centre Epworth pour l’innovation en santé mentale de l’université Monash, la directrice adjointe, le professeur Kate Hoy, supervise les essais de traitements neurologiques pour les troubles du cerveau, notamment la dépression résistante au traitement, les troubles obsessionnels compulsifs, la schizophrénie et la maladie d’Alzheimer.
L’un des traitements testés est la stimulation magnétique transcrânienne (TMS), qui est déjà largement utilisée pour traiter la dépression et qui a été inscrite sur la liste des prestations de Medicare l’année dernière.
L’un des attraits de la TMS est son caractère non invasif. Les gens peuvent être traités pendant leur heure de déjeuner et retourner au travail, explique M. Hoy.
« Nous plaçons une bobine en forme de huit, que vous pouvez tenir dans votre main, sur la zone du cerveau que nous voulons stimuler, puis nous envoyons des impulsions dans le cerveau, ce qui induit un courant électrique et provoque l’activation des neurones », explique-t-elle.
« Ainsi, lorsque nous déplaçons [l’impulsion] vers les zones du cerveau que nous savons impliquées dans des choses comme la dépression, ce que nous visons à faire est essentiellement d’améliorer la fonction dans cette zone du cerveau. »
La SMT n’entraîne pas non plus d’effets secondaires tels que la perte de mémoire et la fatigue, communs à certaines méthodes de stimulation cérébrale. Mme Hoy affirme qu’il existe des preuves que la cognition de certains patients s’améliore après la SMT.
Lorsque Zia Liddell, 26 ans, a commencé un traitement par SMT au centre Epworth il y a environ cinq ans, elle avait peu d’attentes. Liddell est atteinte de schizophrénie induite par un traumatisme et souffre d’hallucinations depuis l’âge de 14 ans.
« J’ai parcouru un long chemin dans mon parcours, de la vie dans les services de psychiatrie à la prise de toutes sortes d’antipsychotiques, jusqu’à emprunter cette voie de la technologie neurodiverse. »
Liddell n’était pas trop investie dans la TMS, dit-elle, « jusqu’à ce que cela fonctionne ».
Elle décrit la SMT comme « une tape très, très douce sur l’arrière de votre tête, de manière répétitive et lente ».
Mme Liddell se rend à l’hôpital pour un traitement qui dure normalement deux semaines, deux fois par an. Elle y subit deux séances de SMT de 20 minutes par jour, allongée sur une chaise à regarder la télévision ou à écouter de la musique.
Elle se souvient clairement du moment où elle a réalisé que le traitement fonctionnait. « Je me suis réveillée et le monde était silencieux. J’ai couru dehors en pyjama, dans la cour, et j’ai appelé ma mère. Et tout ce que j’ai pu dire à travers mes larmes, c’est : « J’entends les oiseaux, maman ».
C’est un apaisement de l’esprit qui, selon Liddell, prend effet au bout de trois à cinq jours d’un traitement de deux semaines.
« Je me réveillerai un matin et le monde sera calme… Je ne suis pas distrait, je peux me concentrer. La SMT ne m’a pas seulement sauvé la vie, elle m’a donné la possibilité de gagner ma vie. L’avenir de TMS est mon avenir ».
Mais malgré la façon dont le TMS a changé sa vie pour le mieux, elle n’est pas naïve quant aux dangers de lâcher la neurotechnologie dans le monde.
« Je pense qu’il y a une discussion importante à avoir sur la ligne de consentement à tracer », dit-elle.
« Vous modifiez la chimie du cerveau de quelqu’un, ce qui peut changer et changera sa vie. Vous jouez avec le tissu de qui vous êtes en tant que personne ».