Quand les machines s’occupent de vous : interview de Serge Tisseron
CEMÉA (C) : Ce numéro de CEMÉAction s’attache à prendre des soins des personnes, des institutions, de l’environnement, de la culture… Qu’est-ce que cela évoque chez vous dans notre époque ?
Serge Tisseron (ST) : Votre démarche est absolument essentielle. Le « prendre soin » résonne en effet aujourd’hui comme un concept fort grâce aux travaux anglo-saxons, et notamment des féministes, qui ont montré sa complexité. Le mot « care », qui est d’ailleurs intraduisible en français, comporte en effet plusieurs étapes successives absolument complémentaires : l’évaluation des besoins, pour lesquels l’intéressé doit être sollicité ; l’estimation de la capacité de l’aidant à pouvoir y répondre ; la mise en route du soin proprement dit ; et enfin l’évaluation du résultat. Le « care », qui recoupe le concept d’empathie, oblige à faire preuve à la fois d’écoute, de modestie et de capacité à se remettre en cause. Et l’inverse est tout aussi vrai : pratiquer le « care » dans toutes ses exigences, oblige aussi à développer sa plasticité psychique, dont la capacité de s’adapter aux situations inattendues fait partie.
C : Serge Tisseron, on vous connaît d’abord pour nous avoir alerté-e-s sur le danger des écrans. On se retrouve aujourd’hui entouré-e-s d’objets connectés et interactifs et les confi-nements liés à la crise sanitaire ont accéléré ce processus. Ces objets constituent-ils un danger pour le développement des enfants ? En quoi ?
ST : De plus en plus de familles font l’achat d’une enceinte connectée, et beaucoup d’entre nous utilisent des assistants vocaux tels Siri, Google Assistant, Alexa ou Cortana. Ces machines sont des « chatbot », c’est-à-dire des robots qui parlent. Ce terme a été créé à partir du mot anglais « chat » qui signifie discuter, et du postfixe « bot », pour « robot ». C’est cette même logique qui a présidé à la fabrication des mots « sexbot » pour les robots sexuels et « cobot » pour les robots collaboratifs. Les chatbots les plus simples obéissent à des demandes vocales comme d’allumer la télévision ou d’indiquer la météo. À un degré de plus, on peut avoir avec elles des rudiments de conversation, comme avec Siri. L’objectif à terme est d’en faire des compagnons de toutes nos décisions. Bien sûr, ces machines sont encore très rudimentaires, mais elles vont se perfectionner très vite et en libérant nos mains, elles vont nous rendre de grands services. Nous pourrons retirer un billet de train à une borne rien qu’en parlant, et même faire de la programmation sans clavier.
Ces machines sont évidemment appelées à prendre une grande place dans les familles. Au début, nous les utiliserons pour avoir des informations sur la météo, pour nous mettre un morceau de musique, puis sur l’actualité. Mais dans tous les cas, c’est la machine, micro ouvert en permanence, qui choisira pour nous quelle source sélectionner. Ce n’est pas bien grave pour la météo, mais beaucoup plus pour les actualités, car il existe beaucoup de sources possibles. Nous renoncerons peu à peu, sans même nous en rendre compte, à la possibilité que nous laisse Google de consulter plusieurs réponses à nos questions. Et puis petit à petit, ces machines seront dotées d’une personnalité de telle façon que nous serons tentés de croire que nous parlons à une « vraie » personne dotée de « vraies émotions » et d’un « vrai jugement ». Nous serons alors tentés de leur demander des conseils personnels, comme de savoir quel comportement adopter avec un copain ou une copine qui nous a quittés, ou comment nous comporter lors d’un entretien d’embauche. Et là encore, la machine nous guidera en fonction des algorithmes que ses créateurs auront développés.
Cette transformation de la machine en « sujet » doté d’une personnalité pose la question des possibilités de manipulation s’appuyant sur l’attachement. En effet, bien qu’un tel lien soit fondé sur des illusions, il peut s’avérer suffisamment agissant pour orienter les attitudes et les comportements des utilisateurs. N’oublions pas que la simulation émotionnelle est un instrument majeur de manipulation d’autrui. La tendance de beaucoup d’entre nous à rechercher parmi ses interlocuteurs un substitut de personnage maternel par lequel se sentir protégé et guidé pourrait pousser certains utilisateurs à attendre que leur machine puisse matérialiser (et non pas incarner puisque la machine n’est pas vivante) une telle fonction. Certains pourraient s’y attacher, lui faire confiance, développer une dépendance toujours plus grande à sa « présence » capable de compenser la solitude, avec un risque accru de manipulation par le fabricant.
Bien sûr, ces machines n’en sont qu’à leurs débuts, mais si nous avions été vigilants plus tôt sur les excès possibles des smartphones, nous n’en serions pas où nous en sommes aujourd’hui. C’est pourquoi, dans mon dernier livre « L’Emprise insidieuse des machines parlantes, plus jamais seul » , j’alerte sur leurs risques. Car ces machines risquent de devenir rapidement de puissants agents d’influence à notre insu. Ne pas poser ces questions aujourd’hui, c’est courir le risque de se retrouver dans quelques années chacun avec un petit boîtier qui joue avec nous le rôle de Jimmy Cricket avec Pinocchio !
C : Les enceintes connectées constituent selon vous un danger largement caché par des campagnes de marketing…
ST : Pour s’assurer de mieux vendre leurs enceintes, Google et Amazon ont eu l’idée de les présenter comme une alternative vertueuse aux écrans. Aux USA, leurs campagnes publi-citaires disent : « Parents, des experts vous disent que les écrans ne sont pas pour vos jeunes enfants. Achetez-leur plutôt une enceinte connectée ! »C’est pourquoi, après avoir proposé en 2008 les repères « 3-6-9-12 pour apprivoiser les écrans et grandir », j’ai proposé en 2020 les repères « 3-6-9-12 pour protéger nos enfants des risques des chatbots ».
- Pas d’outil numérique avant trois ans.Ou seulement dans un but de « visio-conférence », pour parler aux parents ou aux amis éloignés, ou bien en usage accompagné, sur des périodes courtes, et pour le seul plaisir de jouer ensemble.
- Pas d’enceinte connectée avant six ans. Avant cet âge, l’enfant risque de traiter de la même manière ce que disent son père, sa mère ou son enceinte, et en plus, il n’est pas capable de comprendre la logique de la capture des propos qu’il tient à la machine.
- Pas de robots conversationnels avant neuf ans. Il donnerait toujours raison à votre enfant et entraverait chez lui l’apprentissage des règles du jeu social. En effet, apprendre du désaccord est ce qu’il y a de plus formateur à cet âge. En revanche, les simples « robots jouets », type robots à programmer pour enfants, qui n’ont pas ce côté « conversationnel » ou compagnon, sont les bienvenus pour apprendre aux enfants à programmer.
- Pas de robots de compagnie avant 12 ans. La machine serait capable de prendre pour votre enfant la place d’un compagnon. Ce serait une catastrophe car leur programme est conçu pour construire un double de leur utilisateur, de telle façon que celui-ci risque de tourner rapidement en rond sans même s’en apercevoir, en parlant à une machine qui lui renvoie ce qu’il lui a dit précédemment, et qu’il a évidemment oublié !
C : Les robots – de quelque forme qu’ils soient–seraient-ils capables de prendre soin des enfants ? Y aurait-il une plus-value de l’humain par rapport à la machine ? Et d’éventuelles plus-values de la machine sur l’humain ?
ST : La nécessité de toujours envisager la complémentarité des compétences entre les humains et les robots est parfois nommée paradigme MABA (Men are better at, machines are better at). Mais la liste des tâches mieux réussies par les humains et par les robots évolue sans cesse. Aujourd’hui, seules trois compétences humaines dépasseraient celles des machines : les facultés de jugement, d’improvisation et de raisonnement inductif. Cela devrait avoir des conséquences importantes sur l’éducation. Il est urgent de reconnaitre que notre système éducatif a été conçu avec l’ambition d’apprendre aux enfants des connaissances utilisables toute leur vie en privilégiant l’intelligence hypothético-déductive sur toutes les autres. Or, aujourd’hui, nous savons que l’apprentissage met en œuvre l’ensemble de l’humain : son corps, ses sens, huit formes différentes d’intelligences 4, et que les apprentissages sont indissociables des émotions et de la socialisation. Par ailleurs, et justement du fait de la robotisation, dans 20 ans, entre 20% et la moitié des métiers d’aujourd’hui auront disparu. L’enseignement doit donc inviter les élèves à imaginer leur métier de demain et développer les qualités qui leur seront nécessaires quoi qu’ils fassent : être autonomes, être créatifs, et savoir coopérer en se montrant capables de critiques constructives. Tout cela nécessite évidemment bienveillance et empathie de la part des enseignants car les émotions jouent un rôle majeur dans les apprentissages.
C : Quels effets une relation enfant/robot provoque-t-elle, basée sur des protocoles et des algorithmes ?
ST : Plusieurs études ont montré qu’une majorité d’enfants adopte avec les robots spontanément les mêmes comportements qu’avec un être vivant, en l’abordant notamment comme s’il pouvait être un ami, un camarade de jeux, et qu’il puisse même garder les secrets qu’on lui confie. Ils établissent un contact visuel avec lui en le regardant dans les yeux, lui serrent la main, l’étreignent. Une majorité d’enfants accorde également aux agents artificiels des caractéristiques habituellement réservées aux êtres vivants : des états émotionnels comme la tristesse, des états mentaux comme la capacité de réfléchir à une situation et même des états moraux. Il n’est donc pas étonnant que les enfants manifestent des signes de stress si un robot est mal-traité ou se comporte de façon incorrecte. Et d’ailleurs, beaucoup d’adultes réagissent aussi de cette façon quand ils voient un robot maltraité, comme s’ils souffraient de la douleur qu’ils lui imaginent !
Mais en même temps, les enfants manifestent des attitudes et des états intérieurs différents selon qu’ils interagissent avec des agents hu-mains ou à des agents artificiels. Les contacts physiques et visuels sont plus nombreux avec les agents vivants qu’avec les robots. Ils disent aussi ressentir un plus grand sentiment d’amitié avec les agents vivants qu’avec les agents artificiels. Enfin, ils associent moins d’états mentaux et moins de préoccupations morales aux agents artificiels qu’aux agents vivants. Donc, ils font très bien la différence. Mais ça ne suffit pas. Il faut les accompagner dans cette découverte. Leur expliquer dès l’école primaire le fonctionnement du numérique : enseignement de l’histoire des machines (à commencer par la machine à calculer de Pascal), des algorithmes, du langage de programmation (à commencer par « Scratch », disponible gratuitement sur Internet), et des lois de l’information. Mais il faut aussi leur expliquer leur propre fonctionnement face aux machines, le danger d’ignorer le programmeur, de leur faire trop confiance, les risques de biais cognitifs, comment ces machines peuvent capturer les données personnelles et le pouvoir d’influenceur qu’elles peuvent prendre dans nos vies.
Mais ces explications ne sont pas possibles avant l’âge de 7-8 ans. C’est pourquoi il est important de tenir les enfants à l’écart de ces machines avant cet âge.
C : Considérant l’essor des outils numériques et la gestion de l’éducation au sens large (école, accueil des enfants en crèche ou dans les lieux extrascolaires [comprenez « périscolaires » pour la France]), y a-t-il un risque réel de disqualification des professionnel-le-s de l’éducation au profit de robots de votre point de vue ?
ST : La réponse à cette question se trouve dans le choix de robots collaboratifs, les fameux « cobots ». Le terme est apparu en 1996 pour désigner un dispositif robotique manipulant des objets en collaboration avec un opérateur. Depuis, la définition s’est considérablement élargie. L’expression « robotique collaborative » s’applique à toutes les situations dans lesquelles un robot partage le même espace de travail qu’un opérateur et interagit avec lui de manière sûre. Il peut s’agir de coprésence (l’opérateur et le robot coexistent dans le même espace mais chacun s’occupe d’une tâche distincte), de coopération(l’opérateur et le robot réalisent une tâche commune sans avoir besoin de se coordonner pour en venir à bout) ou de collaboration (l’opérateur et le robot réalisent ensemble une tâche complexe qui nécessite qu’ils se coordonnent). Cette coordination peut se faire soit du point de vue d’une meilleure rentabilité des gestes accomplis, soit du point de vue d’une plus grande valorisation de l’activité humaine. C’est évidemment cette seconde direction qui doit être valorisée dans les domaines du soin et de la pédagogie. Utiliser la machine pour faire mieux ce que l’on faisait jusque-là sans elle.
Le projet de la robotique sociale appliquée aux situations éducatives n’est pas de créer des suppléants artificiels capables de prendre la place des intervenants. Les robots ne sont pas des « doudous », ni des ersatz d’humains, mais des outils capables de mobiliser l’intersubjectivité. Ils n’ont pas pour but deremplacer les intervenants, mais de les assister dans certaines tâches. De la même façon que les outils numériques ne remplacent pas les interventions humaines en thérapie, mais qu’ils les augmentent et les enrichissent, ils doivent être également utilisés dans ce sens en situation éducative.
Il faut que les éducateurs confrontés à des outils numériques se demandent à chaque fois ce qu’ils peuvent faire avec ces outils qu’ils ne peuvent pas faire sans eux. En effet, puisque l’être humain dispose de facultés de jugement, d’improvisation et de raisonnement inductif qui le rendent supérieur aux machines, il doit apprendre à exploiter dans le domaine éducatif les qualités propres de celles-ci, qui ne sont justement pas des qualités humaines : leur capacité de répéter les mêmes gestes ou les mêmes paroles sans montrer ni lassitude ni irritation ; le fait qu’elles ne jugent pas et ne condamnent pas ; le fait qu’elles puissent proposer des relations simplifiées par rapport à la complexité des relations humaines.
C : S’il s’agit de remettre du sensible et de l’humain dans la relation éducative, à quoi les éducateurs et les éducatrices doivent-ils-elles être particulièrement attentif-ve-s ?
ST : La nouvelle culture des écrans a introduit au moins six changements majeurs dans le fonctionnement des nouvelles générations : (1) les enfants y apprennent de plus en plus tôt à jouer avec plusieurs identités, (2) ils s’engagent en parallèle dans la résolution collective des tâches et la valorisation de leurs expériences les plus personnelles, (3) ils créent leurs propres images, (4) ils valorisent les apprentissages intuitifs parallèlement à l’intelligence hypothético-déductive et (5) ils établissent une relation de plus en plus intime avec les machines, (6) ils développent le goût pour le changement de tâches. Chacune de ces particularités peut être relayée par l’institution scolaire. D’autant plus qu’elles sont congruentes avec ce que nous savons aujourd’hui du corps, des sens, et des huit formes complémentaires d’intelligence dont dispose tout être humain.
Mais l’éducateur ne doit non plus jamais oublier ceci : le numérique peut apporter beaucoup, mais on s’y perd facilement si on n’a pas développé d’abord les qualités traditionnelles associées à la culture du livre comme la compétence narrative et la capacité d’autorégulation. En outre, les outils numériques actuels ne permettent pas la controverse, l’échange des informations, le débat, ce qu’illustrent dramatiquement les réseaux sociaux, dont les algorithmes encouragent les prises de positions extrêmes et ne permettent pas la construction collaborative de savoirs. C’est tout cela qu’il faut développer, avec ou sans outils numériques. Sans oublier que l’élève a besoin d’une relation vivante avec un éducateur qui valorise ses possibilités, et auquel il peut s’identifier dans une relation dynamique et créatrice aux savoirs. C’est toute la différence entre acquérir des connaissances et avoir du plaisir à acquérir des connaissances, qui passe par l’identification à un interlocuteur. Les connaissances peuvent être acquises de deux façons : dans le déplaisir, mais alors elles sont figées ; ou dans le plaisir, et alors elles deviennent des savoirs qui sont susceptibles de constituer le socle de savoirs ultérieurs. Un dispositif d’enseignement permet l’acquisition de connaissances. Dans un processus de construction des savoirs, l’enfant est invité à s’identifier à l’enseignant, à sa curiosité et à sa créativité, dans une dynamique de controverses et de confrontations. Les conflits sont un puissant moteur d’apprentissage, comme l’a montré Piaget. Une étape importante dans le développement des capacités d’empathie consiste à comprendre que sur chaque problème complexe, plusieurs points de vue sont possibles, et que nous les portons chacun à l’intérieur de nous.
C : Quelles seraient les 2 ou 3 questions clés à se poser face aux outils numériques pour en opérer des usages intelligents au service du développement des enfants (et ne pas les diaboliser ou les sacraliser) ?
ST : La gestion des machines de demain sera un problème particulièrement complexe. Tout d’abord nous devrons interagir avec elles comme avec des humains tout en gardant constamment à l’esprit qu’elles n’en sont pas. Et ensuite nous serons amenés à leur accorder des prérogatives habituellement réservées à nos semblables, comme la politesse, tout en ne devant jamais oublier qu’elles sont incapables d’en comprendre le sens. Mais qui en sera capable ? Les informaticiens qui pensent se rassurer – et nous rassurer – et répétant que les agents « intelligents » artificiels ne sont que des machines à simuler sous-estiment gravement la capacité de l’être humain à se fabriquer des histoires, et d’y croire aussitôt que cela lui assure une économie de penser. La question n’est pas de savoir si un robot pourra un jour imiter l’ensemble des compétences humaines, mais de comprendre ce qui fera que des humains pourront être tentés d’imaginer à une machine des compétences qu’elle n’a pas et de se fabriquer un imaginaire confortable autour de cette conviction. Pour écarter ce risque, il y a deux préoccupations que nous devons toujours garder à l’esprit, et pour lesquelles il faut nous battre.
Tout d’abord, il est essentiel d’écarter le risque de confusion entre l’homme et la machine. L’IA qui se fait passer pour un humain, explicitement ou par défaut, devrait être interdite, tout comme les publicités toxiques qui prétendent nous vendre des robots ayant « des émotions », ou « du cœur ». L’existence de protections transparentes plutôt qu’opaques rappellerait leur caractère de machine. Et chaque protocole de soin devrait donner lieu à une réflexion sur la pertinence du choix du robot pour le service attendu. Et ensuite, il est essentiel d’assurer l’égalité de tous dans l’accès aux technologies innovantes.
Les personnes dont les données révèlent des risques accrus de fragilité, de déficience ou de maladie doivent bénéficier de tous les services de façon identique au reste de la population.Les citoyens doivent pouvoir débattre collectivement de ces questions qui relèvent en définitive de choix de société. Par exemple, comment trouver un juste équilibre entre respect de la vie privée et individualisation des traitements ? Il est maintenant essentiel d’améliorer la formation des citoyens en matière de numérique. C’est pourquoi le numérique doit être enseigné à l’école, et cela dès le cours élémentaire.
C : Selon vous, qu’est-ce que l’avenir connecté nous réserve de meilleur ? Et de pire ?
ST : Les pouvoirs d’illusion des machines parlantes devraient inciter leurs fabricants à avancer avec prudence. Hélas, c’est le contraire qui se passe. Les personnalités données aux robots font une large place aux stéréotypes sociaux au risque de renforcer ceux-ci. Les possibilités d’un attachement émotionnel problématique sont également très peu prises en compte. Bien entendu, l’être humain s’attache depuis les origines de l’humanité aux objets qu’il utilise, mais il s’agit d’éviter d’entretenir l’idée d’une réciprocité possible, notamment en prêtant aux robots un fonctionnement affectif similaire à celui d’un humain. Or les constructeurs de ces machines semblent avoir une fâcheuse tendance à ne pas communiquer sur ce qui contredit l’idée d’une autonomie de leurs produits. En plus, certains fabricants n’hésitent pas à créer de toutes pièces la fiction de machines capables de ressentir, voire de penser, en laissant croire qu’elles auraient des émotions, voire une conscience autonome. Or l’être humain a largement montré au cours de l’histoire sa vulnérabilité pratiquement infinie vis-à-vis des croyances qui lui évitent de se confronter à des problèmes complexes. Les humains se retrouvent facilement dans des mondes qui correspondent à l’image qu’ils ont des choses, et peu leur importe que leurs convictions soient excentriques ou carrément erronées.
Si ces questions sont bien posées, les aides que les robots et les machines numériques peuvent apporter sont considérables. Mais pour cela, il faut comprendre quelles sont nos faiblesses, et comment les prendre en compte, et comment éviter de fabriquer un produit qui les aggrave. À ne pas vouloir nous poser ces questions, nous risquons d’embarquer à leur insu un grand nombre de leurs usagers dans des croyances erronées qu’il ne servira à rien de dénoncer : elles simplifieront tellement leur vie psychique que rien ne pourra les y faire renoncer. Le maillon faible, dans la relation entre l’humain et la machine, c’est l’humain.
1 / www.sergetisseron.com / Son dernier ouvrage : « L’emprise insidieuse des machines parlantes », Éd. Les Liens qui Libèrent, mars 2020.
2 / Tisseron Serge, Tordo Frédéric, « Manuel de cyberpsychologie : comprendre et soigner l’homme connecté », Ed. Dunod, mars 2021.
3 / https://ln.cemea.org/_-u5um2d
4 / Il s’agit de : l’intelligence logico-mathématique, l’intelligence verbo-linguistique, l’intelligence musicale-rythmique, l’intelligence corporelle-kinesthésique, l’intelligence visuelle-spatiale, l’intelligence interpersonnelle, l’intelligence intrapersonnelle et l’intelligence naturaliste-écologiste (Howard Gardner, « Les formes de l’intelligence », Odile Jacob, 1993).
Photo by Andy Kelly on Unsplash