Voir la traduction automatique
Ceci est une traduction automatique. Pour voir le texte original en anglais cliquez ici
#Actualités du secteur
{{{sourceTextContent.title}}}
Humanisme numérique et soins de santé
{{{sourceTextContent.subTitle}}}
Les patients ne doivent pas seulement être placés au centre des soins, mais aussi au centre des technologies de la santé.
{{{sourceTextContent.description}}}
D'une manière plus générale, c'est cela l'humanisme numérique. Au lieu de servir les intérêts des grandes entreprises technologiques au détriment des personnes en exploitant les faiblesses humaines et en prenant le contrôle hors de leurs mains, les humains devraient intervenir et dire stop à la technologie dégradant les humains, créant ou creusant les écarts dans les sociétés, ignorant la diversité. Voici quelques idées et principes sur la façon dont cela pourrait se dérouler, à savoir l'humanisme numérique, dans le domaine de la santé.
Technologie vs. humains : qui a le contrôle ?
Google, Facebook, Twitter, Amazon, YouTube, etc. : depuis des années, nous entendons parler de la façon dont ils remodèlent le monde, mais les effets néfastes des entreprises technologiques de " l'économie de l'attention " ne sont pas encore suffisamment pris au sérieux. Bien qu'il y ait de nombreux signes indiquant à quel point ils peuvent être nocifs pour les sociétés.
Le système est en panne, c'est ce que le fondateur du World Wide Web, Tim Berners-Lee, a dit il y a deux ans. Il a souligné que si la numérisation ouvre des possibilités sans précédent, elle soulève aussi de graves préoccupations : la monopolisation du Web, la montée des opinions et des comportements extrémistes orchestrés par les médias sociaux, la formation de bulles filtrantes et de chambres d'écho comme îlots de vérités disjointes, la perte de vie privée et l'expansion de la surveillance numérique. Rappelez-vous la nouvelle selon laquelle Facebook est devenu un outil central de propagande contre les Rohingyas au Myanmar - même l'ONU en a blâmé la plate-forme - ou le soutien accru à Rodrigo Duterte aux Philippines ? Ou quand les Russes ont essayé d'utiliser les médias sociaux en les remplissant de fausses nouvelles lors des élections américaines de 2016 pour en détourner les résultats ?
Cependant, nous n'avons pas besoin d'aller aussi loin, il suffit de regarder au niveau individuel. Les entreprises en ligne construisent une technologie qui crée une dépendance et tente d'attirer l'attention des utilisateurs à tout prix - même en exploitant les faiblesses humaines et en exploitant nos pires défauts psychologiques. Selon les statistiques, la personne moyenne regarde son téléphone 150 fois par jour. Chaque fois que nous recevons une notification, le cerveau libère un flot de dopamine aussi addictif que le signal de récompense qu'un joueur reçoit lorsqu'il tire la poignée d'une machine à sous. Aime ? Des actions ? Nouveau courriel ? Ça n'a pas d'importance jusqu'à ce que ça te tienne fiancé. Êtes-vous enclin à lire des nouvelles adaptées à vos intérêts pendant une plus longue période ? Ils créent votre propre bulle filtrante et vous n'aurez plus jamais à affronter des opinions contradictoires. Vous sentez-vous plus excité quand vous regardez des théories de conspiration ? Ils vous font part de leurs idées les plus folles.
Dans une excellente conférence, Tristan Harris, ancien éthicien du design chez Google et cofondateur du Center for Humane Technology, a mentionné que sur plus d'un milliard d'heures de YouTube regardées quotidiennement, 70 % proviennent des recommandations. Ce ne sont pas les utilisateurs qui cherchent activement des vidéos sur, disons, des conspirations de terre plate, mais YouTube les place devant les observateurs car leur vision se traduit par un engagement plus long sur le site. Et les utilisateurs cliquent avec diligence sur la vidéo suivante, rejoignent le groupe Facebook recommandé ou autorisent les notifications provenant de dizaines de sites. Qui contrôle notre attention ?
Intelligence artificielle, algorithmes intelligents et puissance
Vous pouvez dire que ce n'est là qu'une toute petite fracture du développement technologique, nous avons la robotique avancée, la réalité virtuelle, la réalité augmentée, l'intelligence artificielle, et la façon dont les médias sociaux sont conçus n'a pas une telle influence. Cependant, si vous considérez les algorithmes intelligents comme des mécanismes de contrôle dans les robots, ou les VR/AR qui incarnent un environnement immersif ou interactif pour les programmes logiciels intelligents, vous constaterez que la technologie ultime dont nous devons nous préoccuper est l'intelligence artificielle et les algorithmes intelligents. Algorithmes exploitant la puissance des grandes données, les réalisations de la vision par ordinateur et du traitement du langage naturel - et les capacités à prendre en charge l'agence humaine.
Il n'est donc pas étonnant que les préoccupations concernant le développement de l'I.A. tournent non seulement autour de l'automatisation intelligente basée sur des algorithmes remplaçant les emplois, mais aussi autour de la façon dont elle peut dépasser l'espèce humaine dans le cockpit. Stephen Hawking a même dit que le développement de l'intelligence artificielle complète pourrait signifier la fin de la race humaine. Elon Musk a accepté. Tristan Harris a dit que les systèmes sociaux artificiels couplés à l'insémination artificielle écrasante et aux incitations extractives provenant des plus grandes entreprises technologiques entraînent l'exploitation des faiblesses humaines et le déclassement des humains. Pendant que nous améliorons nos technologies, nos machines, nous détournons nos esprits et créons des zombies accros aux écrans.
Cela semble horrible et nous ne devrions pas le laisser faire, mais que pouvons-nous faire ? De quel type de solutions disposons-nous pour aller à l'encontre des intérêts des entreprises technologiques et des biais inhérents à leurs produits ?
La solution, c'est l'humanisme numérique
Michael Stampfer, directeur général du Vienna Science and Technology Fund (WWTF), a déclaré lors d'une conférence sur la numérisation à Vienne que le problème n'est pas que les plus grandes entreprises de technologie ont mal utilisé les technologies neutres, mais qu'elles ont intégré certains principes, valeurs et intérêts dans leurs produits dès la conception. Qui a dit que Facebook doit avoir un "bouton" qui transforme la plateforme en machine à sous ou que des notifications devraient apparaître chaque fois que vous n'avez pas utilisé Instagram depuis un moment, vous rappelant que d'autres amis partagent leurs souvenirs, transformant la plateforme en une compétition sociale sur " la vie est plus cool " ? Stampfer estime que les intérêts cachés codés dans les algorithmes devraient être mis en lumière et canaliser les valeurs de l'humanisme au cœur du développement technologique.
Cela exige de la maîtrise de soi de la part d'une partie des plus grandes entreprises de technologie, ce qui pourrait être une demande problématique de la part d'entreprises en concurrence pour des profits plus élevés sur un marché brutal. Mais au moins en rhétorique, Mark Zuckerberg, par exemple, a adopté l'idée de Tristan Harris "temps bien dépensé" comme objectif de conception pour Facebook. Selon ce dernier, la solution réside dans la création d'une "technologie humaine", c'est-à-dire des interfaces qui répondent aux besoins humains et prennent en compte les fragilités humaines. Il croit que nous devrions reconstruire nos systèmes sociaux et nos algorithmes d'intelligence artificielle pour refléter cette attitude humaine.
Un problème systémique qui nécessite des réponses systémiques - également dans le domaine des soins de santé
C'est également ce que le Manifeste viennois sur l'humanisme numérique souligne, en mettant un accent particulier sur ce qui devrait être la base du développement technologique futur. Nous avons passé en revue les principes et réfléchi à ce qu'ils signifient par rapport aux soins de santé et à la façon dont ils pourraient être adaptés à la médecine.
Les technologies numériques devraient être conçues pour promouvoir la démocratie et l'inclusion. Dans le cas des soins de santé, cela devrait signifier des technologies accessibles à tous et des solutions qui vont au-delà des barrières sociales, financières ou éducatives.
La vie privée et la liberté d'expression sont des valeurs essentielles pour la démocratie et devraient être au centre de nos activités. La protection des informations sensibles sur les patients doit être considérée comme une priorité absolue, plus encore que dans le cas de données "régulières". Comme pour l'apparition d'énormes quantités de données génétiques et génomiques, l'accès non autorisé à de telles informations sur la santé ne signifierait pas seulement mettre en danger l'état actuel des patients, mais aussi s'ingérer dans leur avenir.
Des règlements, des règles et des lois efficaces, fondés sur un large discours public, doivent être établis. Depuis des années, nous faisons pression pour que les décideurs politiques, les régulateurs et les institutions publiques intensifient leur action. Toutefois, l'audition de Mark Zuckerberg au Congrès l'an dernier, qui a duré deux jours, a montré que la compréhension des technologies par les législateurs est assez superficielle - même si c'est la première étape d'une réglementation efficace. Mais s'ils ne comprennent pas Facebook, que feront-ils du bioterrorisme, de l'intelligence artificielle, des exosquelettes ou des traitements en réalité virtuelle ?
Les régulateurs doivent intervenir auprès des monopoles technologiques. Au-delà de l'exigence ci-dessus de la part des législateurs, The Medical Futurist a déjà recommandé la création d'une entité mondiale de type FDA. Cela permettrait de réglementer efficacement les activités de nombreux perturbateurs qui contournent l'approbation des organismes de réglementation et ne ciblent que la bonne population sur les canaux en ligne, peu importe dans quel pays ils sont.
Les décisions ayant des conséquences susceptibles d'affecter les droits de l'homme individuels ou collectifs doivent continuer à être prises par des êtres humains. Nous évangélisons depuis des années que les systèmes automatisés de prise de décision dans le domaine de la santé ne devraient soutenir que la prise de décision humaine, et non la remplacer. La transparence, ainsi que la responsabilité des algorithmes intelligents, devraient être parmi les premières préoccupations des développeurs de technologies de la santé.
Les approches scientifiques devraient transcender différentes disciplines et les chercheurs universitaires et industriels doivent s'engager ouvertement avec la société au sens large et réfléchir à leurs approches. Nous préconisons la collaboration entre les différentes disciplines ainsi qu'entre les différents groupes de la société, car cela augmente l'efficacité des produits technologiques de la santé. Les défis de la diversité sont beaucoup trop répandus dans le domaine de la santé aussi - il suffit de regarder le marché de la technologie féminine - et nous devrions tout faire pour combler les écarts.
Partout dans le monde, les praticiens devraient reconnaître qu'ils partagent la responsabilité de l'impact des technologies de l'information. Depuis des années, l'équipe de Medical Futurist étudie l'impact des technologies futuristes sur la société et sur la communauté médicale. C'est pourquoi nous avons ressenti le besoin de renouveler le serment d'Hippocrate et d'inclure ce principe important, car ce sont les médecins du monde entier qui travailleront au plus près de la technologie.
Il faut une vision pour les nouveaux programmes d'enseignement, combinant les connaissances des sciences humaines, des sciences sociales et des études en génie. Non seulement là-bas, mais aussi en médecine et en soins de santé. C'est pourquoi le Dr Bertalan Meskó a lancé un cours pilote "Lessons in Digital Health" à la Faculté de médecine Semmelweis au semestre d'automne 2017 afin de découvrir comment les principes et les compétences nécessaires aux médecins du XXIe siècle pourraient être enseignés en pratique. A ce jour, le cours était déjà appliqué dans plusieurs facultés de médecine, telles que l'UP College of Medicine aux Philippines et la School of Medicine de l'Université de Marmara à Istanbul, en Turquie.
L'enseignement de l'informatique et de son impact sociétal doit commencer le plus tôt possible. Le futuriste médical croit également que l'éducation STEM associée aux sciences sociales et aux arts devrait commencer le plus tôt possible. Ainsi, en plus d'inciter les enfants à suivre des cours de sciences, de technologie, d'ingénierie ou de mathématiques, nous attirons toujours l'attention des parents et des enfants sur l'importance de l'étude des arts ou de la philosophie sur le chemin.
Sans une compréhension claire de la nature humaine, nous nous perdrons dans la jungle technologique. C'est ce qui se produit aujourd'hui - mais nous espérons qu'en remettant les humains dans le cockpit en appliquant ces principes le plus tôt possible, nous pourrons atténuer les effets négatifs de la technologie et en arriver vraiment au point où les innovations perturbatrices servent les humains.