Ce qui relevait autrefois de la science-fiction – communiquer, contrôler un ordinateur ou mouvoir un bras robotisé par la seule force de la pensée – est désormais réalité. Et ces progrès changent déjà des vies.
En 2024, lors d’une conférence de l’ONU à Genève, un jeune homme portugais atteint du locked-in syndrome – une maladie neurologique le privant de tout mouvement – a stupéfié le public. Grâce à une interface cerveau-ordinateur (ICO), il a pu « parler » en traduisant ses pensées en mots, restitués dans sa propre voix, et répondre en direct aux questions de l’auditoire.
Une avancée prodigieuse… et inquiétante
Cette prouesse illustre les promesses vertigineuses de la neurotechnologie, un domaine porteur d’immenses espoirs pour les personnes atteintes de handicaps ou de troubles mentaux tels que la maladie de Parkinson, l’épilepsie ou la dépression résistante aux traitements. Mais en dehors du champ médical, son essor suscite de vives préoccupations éthiques.
Montres, bandeaux ou écouteurs capables de mesurer l’activité cérébrale, le rythme cardiaque ou les cycles du sommeil se multiplient. Les données qu’ils collectent livrent un aperçu inédit de nos pensées, de nos émotions et de nos réactions — des informations précieuses, mais aussi d’une sensibilité extrême.
Ces dispositifs, souvent commercialisés sans encadrement, permettent déjà à leurs fabricants de vendre ou de partager les données mentales recueillies. Un marché florissant où la vie intérieure de chacun pourrait être scrutée, marchandisée, voire manipulée.
« Il s’agit de la liberté de pensée, de l’autonomie et de la vie mentale privée », prévient Dafna Feinholz, cheffe par intérim de la section Recherche, éthique et inclusion à l’UNESCO.
Selon elle, la bataille pour la vie privée mentale est peut-être déjà en train de se perdre à l’ère des réseaux sociaux, où chacun expose volontairement son intimité à quelques grandes plateformes. « Les gens disent : “Je n’ai rien à cacher”, mais ils ne réalisent pas ce qu’ils abandonnent », souligne-t-elle. « Nous sommes déjà profilés par l’intelligence artificielle, mais désormais il existe la possibilité de pénétrer directement dans les pensées, de mesurer l’activité du cerveau et d’en déduire des états mentaux. Ces technologies pourraient même modifier la structure du système nerveux, ouvrant la voie à la manipulation ».
Elle insiste : « Les utilisateurs doivent savoir que ces outils sont sûrs et qu’ils peuvent, s’ils le souhaitent, cesser de les utiliser ».
Certaines technologies d’assistance permette d’écrire ou de bouger des objets dans l’espace en utilisant la pensée.
« L’humain doit rester dans la boucle »
Pour la responsable onusienne, il ne s’agit pas de rejeter le progrès, mais de réaffirmer la primauté de l’humain : « Plus nous cédons à la puissance et à la supériorité de ces outils, plus nous risquons d’être dépassés. Nous devons contrôler ce qu’ils font et ce que nous voulons qu’ils accomplissent, car c’est nous qui les concevons. C’est notre responsabilité pour toutes les technologies que nous créons ».
Mme Feinholz s’exprimait depuis Samarcande, en Ouzbékistan, où les États membres de l’UNESCO – l’agence onusienne pour l’éducation, la science et la culture – ont adopté mercredi une Recommandation sur l’éthique des neurotechnologies. Ce texte non contraignant fixe des principes et bonnes pratiques destinés à inspirer les législations nationales, en plaçant la dignité humaine, les droits fondamentaux et la liberté de pensée au cœur de la réflexion.
La Recommandation promeut le bien-être et la prévention des risques associés à ces technologies, tout en exigeant des concepteurs, chercheurs et utilisateurs qu’ils respectent des normes éthiques élevées et assument leurs responsabilités. Les États sont invités à instaurer des cadres juridiques pour protéger les données personnelles, surveiller les usages et évaluer les effets de ces innovations sur la vie privée et les droits humains.
« L’humain doit rester dans la boucle », insiste Mme Feinholz. « Il faut de la transparence, des recours et des mécanismes d’indemnisation, comme dans d’autres secteurs. Prenez la restauration : vous n’avez pas besoin de savoir cuisiner, mais si un plat vous rend malade, vous pouvez vous plaindre au restaurateur. Il y a une responsabilité. Il en va de même pour la neurotechnologie : même si vous ne comprenez pas son fonctionnement, il doit exister une chaîne claire de responsabilité ».
Source of original article: United Nations (news.un.org). Photo credit: UN. The content of this article does not necessarily reflect the views or opinion of Global Diaspora News (www.globaldiasporanews.com).
To submit your press release: (https://www.globaldiasporanews.com/pr).
To advertise on Global Diaspora News: (www.globaldiasporanews.com/ads).
Sign up to Global Diaspora News newsletter (https://www.globaldiasporanews.com/newsletter/) to start receiving updates and opportunities directly in your email inbox for free.











