[INTERVIEW] 3 questions à Serge Tisseron : "Le jour où mon robot m'aimera - Vers l'empathie artificielle"

Articles et analyses

[INTERVIEW] 3 questions à Serge Tisseron : "Le jour où mon robot m'aimera - Vers l'empathie artificielle"

Date : Publié par Tags : robot, intelligence artificielle, empathie

Lorsque les robots ressembleront traits pour traits à des Hommes et auront la capacité
de ressentir des émotions, comment pourra-t-on les différencier des êtres humains ?


Si tout est possible, tout n’est pas forcément souhaitable et nous savons combien les attentes
des utilisateurs déterminent l’évolution technologique. Or il n’est pas du tout certain que les
humains aient envie d’avoir affaire à des machines dont ils ne sauraient pas si ce sont des
humains ou des machines. Autrement dit, la question n’est pas de savoir ce qui pourrait se
passer si des machines pouvaient un jour ressembler totalement à des humains, mais les
raisons qu’il y a de favoriser cette confusion ou au contraire de la dissuader. N’oublions pas que
même si une ressemblance d’apparence absolue entre un robot et un humain est un jour
possible, il y aura toujours des personnes informées de la véritable nature des machines, ne
serait-ce que ceux qui les fabriquent, les entretiennent et les programment.
La question n’est donc pas de savoir si cette ressemblance sera possible un jour, car elle le
sera, ni non plus de savoir comment on pourra différencier humains et machines, car ce sera
toujours possible. La question est de savoir qui aura les moyens, et même éventuellement
l’autorisation, de faire cette distinction : chacun, ou bien seulement des experts appartenant à
un corps spécialisé ? Nous sommes évidemment en pleine science-fiction mais il serait à mon
avis extrêmement dangereux d’oublier deux choses. Tout d’abord, si chacun ne pouvait pas
savoir clairement, à tout moment, s’il a affaire à un humain ou bien à une machine, l’homme

serait condamné à se robotiser en s’alignant sur des machines qu’il pourrait croire – ou qu’on
pourrait lui présenter – comme des modèles pour l’humain. Et ensuite, il est essentiel de
comprendre que cette question se pose déjà aujourd’hui, à chaque fois que nous avons affaire
à un robot conversationnel qui interagit avec nous au téléphone exactement comme un humain,
sans jamais décliner son identité réelle.
C’est pourquoi, à l’Institut pour l’étude des relations homme-robots (IERHR) que nous avons
fondé en 2013, l’une de nos préconisations porte sur le fait que, dès aujourd’hui, les usagers
d’un service interagissant avec un robot conversationnel soient toujours informés de cette
éventualité. Afin de familiariser les usagers avec la nécessité de pouvoir toujours à savoir si leur
interlocuteur est un humain qui mérite donc les marques d’attention et de politesse que l’on doit
à ses semblables, ou bien une machine avec laquelle il n’y a aucune raison d’avoir les mêmes
égards.

 

Doit-on avoir peur de ces robots et intelligences artificielles ?


Il n’y a aucune raison d’avoir peur des robots et de l’intelligence artificielle. Ce sont en effet des
créations humaines. La seule chose que l’on doit redouter, ce sont les hommes qui pourraient
être tentés d’utiliser les robots et l’intelligence artificielle pour installer un peu plus leur pouvoir.
Il arrive que l’on me demande en quoi l’intelligence artificielle va révolutionner le monde. Je
réponds toujours que je ne sais pas trop, mais qu’il y a une chose que je sais, c’est qu’avec
l’intelligence artificielle, plus aucune révolution ne sera possible. Entendons par là que chacun
étant surveillé en permanence, soit directement par l’État, soit par des entreprises privées qui
ont le devoir de donner à l’État toutes les informations qu’elles possèdent sur les citoyens, tout
comportement d’opposition naissant pourra provoquer immédiatement la mise au pas, voire
l’incarcération du suspect. C’est déjà ce système terrifiant que l’on voit en œuvre en Chine avec
le fameux « permis à points ».
Les libertés individuelles et associatives n’ont jamais été aussi menacées qu’avec le
développement de l’intelligence artificielle. Elle permet en effet de surveiller chacun non plus
seulement de façon ponctuelle, par exemple lorsque vous utilisez votre ordinateur ou que vous
êtes géolocalisés par votre Smartphone sans même y penser, mais de façon permanente, et
également de pouvoir influencer ses choix les plus intimes en utilisant des formes de
suggestions invisibles est extrêmement ciblées, comme l’a montré le scandale de Cambridge
Analytica.

La grande question du XXIe siècle ne sera pas de savoir quel degré d’autonomie il conviendra
de donner à l’intelligence artificielle. Elle sera de savoir quel degré d’autonomie d’action, et
même de penser, ceux qui la contrôlent décideront de donner à chaque citoyen : à savoir les
états dans les pays totalitaires et les GAFAM dans les pays occidentaux.

 

Sommes-nous prêts à coexister avec ces nouvelles technologies ? 


Nous ne le sommes évidemment pas. L’évolution technologique est si rapide depuis quelques
années que des technologies nouvelles sont proposées sans que nous ayons conscience ni
des avantages spécifiques qu’elles peuvent nous apporter par rapport aux technologies
précédentes, ni de leurs risques. Du coup, ceux qui les utilisent ont tendance à les substituer à
l’ensemble des technologies précédentes avec des effets possibles d’appauvrissement, mais
également à ignorer leurs dangers, notamment en termes de contrôle social et surtout de
manipulation invisible. Heureusement, les pouvoirs publics commencent à prendre en compte
les risques considérables de ces technologies sur les libertés non seulement en termes de
surveillance, mais aussi d’influence. Le règlement général de protection des données mis en
place par l’Europe témoigne de ces inquiétudes. Malheureusement, beaucoup d’usagers
continuent à ignorer qu’il leur est par exemple possible de désactiver les cookies sur un grand
nombre de sites sans perdre la possibilité de les consulter, mais en échappant à un traçage
systématique.
Face à une telle situation, la prévention est plus importante que jamais. Les pouvoirs publics
doivent mettre en place une véritable politique d’éducation aux médias, avec des actions de
préventions auprès des enfants, mais aussi auprès des parents 1 . Et l’institution scolaire doit
mieux accompagner tous les élèves dans la découverte des possibilités et des pièges du
numérique.

Join our Network

Contact us to learn more about how to get involved with GCF or become a member agency

Global Center for the Future
9 rue Huysmans
75006 - Paris
Phone : +33 (0) 1 40 54 13 90





Votre message a bien été envoyé

Nous soutenons une économie responsable