Le 19 décembre 2018, la revue parlementaire « Le Trombinoscope » a publier mon article « Les neurosciences : une approche historique, pratique et éthique » que je vous livre ici en format numérique. Bonne lecture.
Les neurosciences : une approche historique, pratique et éthique
Les neurosciences sont nées hier, à peine un siècle et ont déjà pris une place prépondérante non seulement dans la psychologie, la psychiatrie, la neurologie, la neuroradiologie, la neurochirurgie mais aussi toutes les activités des sciences sociales telles la pédagogie, l’éducation, l’ergonomie, la navigation, le marketing, l’économie, la finance par des tradings algorithmiques et même le droit. Ce développement impose dorénavant à l’esprit l’application de la méthode expérimentale où la chimie, la physiologie et la neuro-imagerie fonctionnelle viennent compléter voire modifier les discours de la psychologie clinique traditionnelle et bousculer en profondeur les conceptions de la psychanalyse notamment dans l’approche neurodéveloppementale des troubles du spectre autistique. On ne compte ainsi pas moins de 100000 publications par an en psychologie témoignant du dynamisme de la recherche en ce domaine.
D’un point de vue historique
D’un point de vue pratique
Les nouvelles technologies utilisant l’intelligence artificielle sont déjà présentes dans notre quotidien avec nos smartphones, nos GPS, les capteurs médicaux en cardiologie, dans le diabète, la cancérologie. En gérontologie des robots d’assistances à l’autonomie tel Néo*, Paro* ou Roméo* amélioreront la prise en charge de la dépendance. Quant aux implants neurosensoriels, ils restent encore à améliorer particulièrement pour le système complexe que constitue la vision.
Des interfaces cerveau-machine (ICM) commencent grâce à un système de liaison directe de contrôler par la pensée un ordinateur, une prothèse voire tout autre système automatisé sans recours à ses bras, ses jambes ou ses mains. L’homme compensé voire augmenté hier sous forme d’avatar virtuel est devenu réalité potentielle. Le projet BCI de Clinotec* vise ainsi à faire marcher des sujets tétraplégiques grâce à une ICM pilotant un exosquelette.
Dans l’e-santé mentale, on peut trouver sur smartphone des applications pour évaluer l’état émotionnel, l’humeur, les données de la voix ou pour permettre aux patients de réaliser un programme de psychoéducation sur leur propre trouble. Les montres pourraient aussi se voir solliciter pour le suivi du sommeil. Les phobies peuvent bénéficier d’une aide par lunettes virtuelles. Réalité virtuelle qui pourrait aussi aider à la prise en charge du stress post-traumatique, des troubles des conduites alimentaires et des addictions. On comptabilise ainsi plus de 1500 applications et seulement 32 publications scientifiques s’y rapportant montrant un impact positif par rapport à ceux qui sont privés d’application mais ne montrant pas de différence entre les groupes avec applications et ceux soumis à placebo.
D’un point de vue éthique
L’exemple récent du robot conversationnel Thy* de Microsoft qui a dû être débranché car il s’était mis à diffuser des messages racistes et misogynes, des accidents provoqués par des voitures autonomes et autres « futures of life » reposent la question de la responsabilité juridique, du cadre législatif et des enjeux éthiques de ces nouvelles technologies de learning machine ?
La Chine va lever un fond de 23,96 milliards de dollars versus 1,5 milliards d’euros pour la France. S’il ne s’agit pas d’étouffer l’innovation et la recherche en ce domaine, il serait une erreur de croire que de Jules Vernes à Isaac Asimov, la science-fiction ne serait que littérature !
Il devient nécessaire d’envisager un questionnement éthique face au spectre d’une société risquant de devenir « ultra-smartisée ». Tout le monde aura-t-il accès à ces nouvelles technologies ? Quelle sera notre place et notre rôle dans la société, particulièrement pour des professions comme celles de chauffeurs-taxis, d’experts juridiques ou de médecins ? Jusqu’où pourrait-être mise en cause notre responsabilité civile et professionnelle ?
Les machines pourraient-elles prendre le pouvoir ? Après les drones de guerre, les futurs robots violeront-il la première loi d’Asimov de ne jamais porter atteinte à un être humain ?
Cette culture digitale restera-t-elle sous contrôle humain ? La loi abusivement dénommée Moore qui fait que la vitesse des microprocesseurs double tous les 18 mois ne nous entraine-t-elle pas vers une perte de contrôle et une dépendance massive ? Nos libertés de choix personnels et de vie ne se verraient-elles pas alors réduites voire niées dans une autre norme, une autre culture ?
Indiscutablement, les outils des nouvelles technologies de l’information et de la communication vont devenir de plus en plus autonomes comme système expert d’abord pour notre confort puis pour nos prises de décisions et enfin dans nos inférences aux apprentissages pour l’éducation. Il est donc essentiel d’en tirer les bénéfices tout en étant vigilant sur la gestion des risques. Dans une planète mondialisée au niveau financier, des systèmes informatiques ont déjà entrainé des minikrachs boursiers. Qu’en serait-il demain dans le domaine militaire ?
Si la machine est appelée à surpasser l’homme dans ses compétences et ses performances, à changer notre regard sur le handicap, la dépendance et donc l’autonomie de la personne, à changer même de paradigme face à la complexité, ne faudra-t-il pas alors lui donner une « identité électronique » dans le prolongement de ce que vient de faire l’UE avec le règlement eIDAS pour établir un service de confiance des systèmes qualifiés d’intelligents dans le domaine des transactions électroniques ? Le développement de l’intelligence artificielle nécessite dès à présent à défaut de tout comprendre de son fonctionnement d’en garantir la transparence des programmes informatiques et autres algorithmes décisionnels qui conduisent notamment à tel ou tel diagnostic ou orientation. Pour cela, un cadre législatif et des recommandations éthiques ne sont pas inutiles, bien au contraire. Le cadre législatif est d’abord celui qui puisse garantir la protection et la gestion des données, leur anonymisation et le consentement éclairé. La loi règlement général des protections des données (RPGD), mise en application depuis le 25/05/2018, doit répondre à cette demande d’« accountability ».
Cette loi RPGD sera -t-elle suffisante pour nous garantir de ne pas nous retrouver un jour pris dans un système où toute forme de liberté individuelle serait niée ? Et, si ce consentement devenait silencieusement moins éclairé ? L’histoire récente s’est souvent retrouvée à accoucher de régimes totalitaires utilisant déjà à leur époque des moyens technologiques dont ils disposaient pour faire de la négation absolue de la liberté la seule règle de vie au profit d’une norme nouvelle, celle d’« un homme nouveau » dévolu au culte de la mort et du sacrifice pour le parti. Resterons-nous dévolus au culte de la performance et de la surcompensation au risque de la négation absolue de notre humaine, si humaine fragilité ?
Stéphane Hawking (1942-2018) dans son dernier ouvrage, « Brèves réponses aux grandes questions », écrit : « notre avenir sera une course entre la technologie et la sagesse ». Il nous convient maintenant de nous assurer que c’est bien la sagesse qui gagnera !
Brahim Hammouche
Député de Thionville – Ouest, Moselle
Retrouvez l’article en PDF