Pierre d’Elbée, Docteur en philosophie, a été invité à participer à une table ronde organisée par Blue Frog Robotics en novembre 2023. Ci-dessous, les réponses à quatre questions qui lui ont été posées au sujet de l’intelligence artificielle (IA).
Quelle est la définition de l’intelligence humaine ? Comment la comparer et la compléter avec l’intelligence artificielle ?
L’intelligence : en latin, Intus legere signifie lire à l’intérieur. Legere vient d’une étymologie indo européenne qui signifie « cueillir, choisir, rassembler ». L’intelligence humaine peut produire des concepts, former des jugements et développer un raisonnement. L’intelligence artificielle simule l’intelligence humaine, grâce à des ordinateurs qui traitent des données immenses avec des algorithmes très sophistiqués. Un algorithme suit une recette et obtient un résultat souvent remarquable en « évacuant toute pensée de son calcul » : l’expression est du professeur au collège de France Richard Berry.
Quel est notre degré de liberté face à l’intelligence artificielle ?
Laurent Alexandre affirme à juste titre qu’une infirmière qui a suivi 3 ans d’études mais qui utilise ChatGPT4 obtient des résultats plus intelligents que lui, médecin, avec plus de 10 ans d’études, expert bien informé mais sans ChatGPT. Il considère que son savoir médical ne porte que sur un millionième du savoir médical total alors que l’IA y a presque entièrement accès.
Ce que Laurent Alexandre ne dit pas, c’est que l’infirmière ne sait pas forcément que les résultats qu’elle obtient avec ChatGPT sont meilleurs que les siens. Il le dit parce qu’il a pu le vérifier. En d’autres termes, une chose est d’aboutir à des résultats, autre chose est de savoir apprécier que ces résultats sont bons.
L’évaluation du résultat obtenu par l’IA, le commentaire que l’on est capable d’en faire, est la marque de l’intelligence humaine à laquelle il ne faut jamais renoncer, sans quoi l’être humain est réduit à un perroquet qui répète des paroles qu’il ne comprend pas.
Quelle est la place de l’humain dans la prise de décision face aux technologies ?
Ce qui a été dit précédemment a des conséquences pratiques. On peut utiliser l’IA pour prendre des décisions, et ces décisions peuvent avoir des conséquences publiques. Si les effets tournent mal, à qui incombe la responsabilité ? La personne utilisant l’IA peut-elle se réfugier derrière elle ?
Lorsque la CNIL évoque qu’en matière d’IA, il faut que les êtres humains « gardent la main », elle encourage une utilisation transparente, vigilante, au service des personnes concernées. Une sorte de traçabilité doit toujours marquer une décision prise à l’aide de l’IA, pour mettre en évidence le lien entre la décision et la personne physique ou morale qui en est à l’origine.
Cette condition sine qua non de responsabilité est un gage de bonne utilisation de l’IA.
Quelles compétences purement humaines risquons nous de perdre ?
Un article du Monde montre qu’au Japon, « la présence de robots dans les maisons de retraite est aujourd’hui en croissance ». Ce qui pose un problème particulier : celui du service aux personnes dont on s’accorde à dire qu’il doit rester humain. Pourtant, les robots vont probablement rentrer dans nos maisons pour plusieurs raisons. D’abord pratique : il est plus économique d’acheter un aspirateur robot que de payer une femme de ménage. C’est plus sûr, ça n’est pas en retard, ça fait moins de bruit… diront les convaincus.
On peut facilement étendre ce raisonnement aux cobots, ces robots utilisés dans l’industrie pour soulager ou remplacer les personnes qui ont des tâches pénibles. Les ouvriers revêtent par exemple des exosquelettes, comme des tuniques qui les aident à soulever des charges lourdes. Aider ou remplacer les êtres humains dans les tâches administratives, ennuyeuses, techniques, physiques, etc. ne pose pas de problème. Une question subsiste : que reste-t-il comme activités professionnelles à l’être humain ?
Toutes celles où un robot est trop difficile à utiliser (artisanat) ou pas assez rentable ou encore et peut être surtout toutes les activités que l’on refuse de céder à un robot parce qu’elles nous intéressent ! En outre, je répondrais volontiers qu’à l’intérieur d’un robot, aussi efficace soit-il, il n’y a personne. Or la relation interpersonnelle est un besoin inscrit dans l’humanité, dans la vie privée comme dans la vie professionnelle : le malade préfère qu’une vraie personne le soigne, un enfant préfère qu’un vrai professeur l’enseigne (sauf s’il est très mauvais !), une belle relation professionnelle ou managériale est précieuse et remplit notre vie de sens. Ce serait folie de la déléguer à des robots.
À propos de Blue Frog Robotics
(Présentation de Blue Frog Robotics par eux-mêmes. Source : leur site internet)
“BLUE FROG ROBOTICS est aujourd’hui un des acteurs majeurs de la robotique sociale en Europe, notamment suite au déploiement de plusieurs milliers de robots pour l’éducation, l’inclusion, l’assistance aux seniors et l’accueil.
Nous développons des “Robots for Good” abordables qui aident et assistent les gens dans leur vie quotidienne avec la vision que demain nous vivrons tous avec des robots, comme aujourd’hui nous vivons tous avec des smartphones et des ordinateurs personnels.
Notre ambition est claire, nous voulons devenir le “Apple” des robots et leader mondial de la robotique sociale.
Pour cela, nous avons créé Buddy, le Robot Compagnon Emotionnel : un concentré de technologie issu de nombreuses années de R&D, tests et expérimentations qui est maintenant reconnu dans le monde entier.”
Découvrez le dernier article de Pierre d’Elbée : la bientraitance : un concept managérial ?