Aidez-nous à poursuivre notre mission en 2025! Objectif de notre financement participatif: 144'000 chf (150'000 €) - 71.42% atteints

L’ère des robots babysitters façonnés à l’IA a commencé

L'objectif affiché est de remplacer les humains.

Partager

Qu’il s’agisse de la création de vidéos “deepfake”, de la disparition de nombreux métiers, de l’impact sur la recherche et les créations artistiques, l’on parle régulièrement des dangers de “l’intelligence artificielle”. Mais la plupart de ces discussions ne portent pas sur la manière dont elle affecte directement les enfants.  Pourtant sans que l’on y prête attention, cette technologie commence déjà à s’installer dans les salles de jeux et les chambres à coucher, avec l’objectif affiché de remplacer les humains.

Les fabricants de produits ‘intelligents’ offrent déjà de nombreux produits destinés aux enfants et affirment qu’ils seront bientôt en mesure de produire une génération de robots babysitters, “permettant d’alléger la tâche des parents, tout comme la télévision et les jeux vidéos le font déjà”. Mais ceci soulève d’importantes préoccupations quant aux effets sur le développement émotionnel et neurologique de l’enfant, ainsi que sur la vie privée, comme le souligne la pédiatre Michelle Perro.

La communication entre l’enfant et le parent va bien au-delà des interactions neuronales. Il y a tout un monde en dehors de la communication verbale – par exemple les expressions faciales, les variations dans le ton de la voix, et tous les échanges énergétiques entre les humains que l’intelligence artificielle ne peut capter. Par ailleurs, c’est oublier que les enfants apprennent avec tous leurs sens et que l’intelligence émotionnelle tient aussi une place centrale dans tout le processus d’apprentissage. Et puis il y aussi le fait que toutes les différences culturelles qui façonnent l’identité et l’histoire de l’individu et qui sont ancrées dans le langage et la communication seront perdues.

Apprendre des émotions avec des robots

À l’instar des innovations des générations précédentes, les produits alimentés par les algorithmes de l’IA visant à impliquer les enfants se vendent sous couvert de ‘perfectionner certaines compétences’ et de ‘faciliter’ la vie des parents.

Moxie, un des robots les plus avancés destinés aux enfants à partir de 5 ans, combine l’intelligence artificielle et la reconnaissance faciale. On le présente comme ‘le jouet rêvé de tous les enfants‘ avec la prétention de les aider à comprendre et à exprimer leurs émotions ! Selon son créateur Paolo Pirjanian :

Moxie est un nouveau type de robot qui a la capacité de comprendre et d’exprimer des émotions avec un discours émotif, des expressions faciales et un langage corporel crédibles, en puisant dans la psychologie et la neurologie humaines pour créer des liens plus profonds.

La vidéo de promotion laisse sans voix. Moxie répond à tout, Moxie amuse et Moxie instruit l’enfant. Ce robot est un condensé de bonnes manières, toujours présent, toujours ‘patient’, toujours ‘compréhensif’, toujours ‘serviable’. Mieux encore, Moxie propose des activités à l’enfant. Et les parents peuvent même le programmer pour ‘faire un sale boulot’ à leur place, comme rappeler à l’enfant qu’il a rendez-vous chez le dentiste. Enfin Moxie est le confident idéal, il est à l’écoute lorsque l’enfant lui raconte ses soucis à l’école et lui propose même un ‘câlin’ robotique.
De prime abord, l’on est subjugé par ce robot de compagnie, proche du mignon et célébrissime R2D2 de la série Star Wars. Comment ne pas se laisser séduire par un robot à la fois  ‘petit frère’ par son aspect basique un peu poupon et grand frère par l’ampleur de ses vastes ‘connaissances’ ? Apparemment, le ‘petit robot’ n’a pas été conçu dans l’idée de proposer un jouet sophistiqué, mais dans celle de remplacer les humains, et de devenir progressivement le compagnon, le confident, le babysitter ou le professeur.

Miko — un autre ‘compagnon de jeu artificiel’ est promu avec le même genre de propos fallacieux. Son slogan ‘L’intelligence artificielle et l’amitié véritable’ !

Miko a des dizaines d’émotions (et quelques tours dans son sac). Il ne se contente pas de vous reconnaître et de vous appeler par votre nom, mais il réagit à votre humeur et apprend à vous connaître un peu mieux chaque jour. Besoin d’une blague quand vous êtes déprimé ? D’une danse quand vous vous ennuyez ? Miko s’en occupe. Parce qu’il n’est pas seulement le petit robot le plus intelligent que vous rencontrerez jamais. C’est aussi votre ami.

En Chine, le robot éducatif Ipal parle chinois et anglais, propose des jeux et des exercices mathématiques et ‘facilite’ la vie des parents en leur absence, en leur permettant de surveiller le bambin et de lui parler. Les chinois, qui sont très réceptifs aux nouvelles technologies, et utilisent déjà abondamment les applications d’assistance vocale et de reconnaissance faciale, sont facilement séduits par ces inventions, d’autant qu’elles sont encouragées par le gouvernement pour qui les utilisations de l’intelligence artificielle sont une priorité.

Quant à Roybi, un “robot éducateur” plus récent, pour les enfants de 3 à 7 ans, parmi “les meilleures inventions de 2019” selon le magazine Time, il va jusqu’à évaluer le niveau d’acquisition de langage de l’enfant pour adapter son programme d’apprentissage.  Selon la firme, le robot offre aux enfants “une éducation personnalisée dans la petite enfance, une période cruciale où ils absorbent la langue comme une éponge”.  C’est bien là le problème !

Les applis qui surveillent les enfants

Parmi les robots ‘éducatifs’, certains sont donc destinés à être de simples jouets sophistiqués, d’autres sont conçus pour inviter les enfants à découvrir la technologie et les bases de la programmation. D’autres encore se profilent comme des substituts à la personne humaine. Il est donc nécessaire de ne pas jeter le “robot” avec l’eau du bain, mais de poser quelques questions fondamentales : le robot est-il doté d’une interface de reconnaissance faciale permettant d’observer l’enfant et ses réactions ? Va-t-il aussi lui donner des injonctions, l’inviter à effectuer une série de ‘missions’ ? Fait-il appel à un registre ‘pseudo-émotionnel’ ? Si tel est le cas, il appartient à une catégorie dangereuse.

Il faut aussi se pencher sur le fait que la plupart des enfants interagissent déjà quotidiennement avec “l’intelligence artificielle” au travers des applis installées sur les Smartphones, telles que Siri, Hey Google ou Alexa, qui leur fournissent toute une série de jeux, de services et répondent à leurs questions.

Par exemple, la plateforme de médias sociaux Snapchat a lancé en février “My AI“, alimenté par ChatGPT, une appli conçue pour être un robot de conversation expérimental et amical, voire ‘un compagnon personnel’.

Bien que les conditions d’utilisation de Snapchat exigent que les utilisateurs aient au moins 13 ans, il n’y a pas de vérification de l’âge, ce qui permet aux jeunes enfants de s’inscrire et d’utiliser le service. Ces outils d’IA plus désincarnés que des “nounous robotisées”, pourraient, s’ils ne sont pas soigneusement surveillés par les parents et réglementés par les gouvernements, prendre la place de véritables liens sociaux et réduire le bagage dont les enfants ont besoin pour aborder la complexité du monde relationnel.

Les expressions humaines ne peuvent pas être “reproduites”

Il est trop tôt pour savoir comment l’IA affectera le développement de l’enfant, mais de nombreux experts sont inquiets :

Le Dr Liz Mumper, présidente du Rimland Center for Integrative Medicine et experte dans le domaine de l’autisme, a déclaré que l’idée de robots ‘babysitters’ et les dangers de l’usage de l’intelligence artificielle la faisaient frémir :

Nous venons de constater les effets dévastateurs des mesures Covid sur le développement des enfants. Les innovations qui éloignent les gens les uns des autres, dénigrant le rôle de l’homme dans l’éducation et le bien-être des enfants et élevant la technologie au rang de substitut parental partiel, posent un danger pour les générations à venir. Les parents doivent faire attention à la publicité faite autour de cette technologie. Certains aspects de l’éducation des nourrissons et des enfants en bas âge – les câlins, les jeux et les interactions en face à face – ne peuvent pas être externalisés.

Pour le Dr Dana Suskind, fondatrice du centre pour l’apprentissage précoce TMW Center for Early Learning et auteure de  “The AI Nanny in Your Baby’s Future” :

Ce dont les bébés ont le plus besoin pour optimiser cette période précoce de progrès rapide, c’est d’une conversation riche, ce que les psychologues du développement appellent des interactions de “service et retour”. Les parents interagissent naturellement avec leurs enfants et l’on sait que cela favorise le développement des compétences cognitives et émotionnelles des enfants. L’introduction de jeunes cerveaux à l’IA réactive peut les altérer de manière fondamentale, sans que nous puissions l’anticiper. Si nous fournissons le mauvais type d’apport ou d’interaction, nous risquons de fausser le développement cognitif de manière considérable.

Où vont les données ?

Google Play propose Story Time, “une application gratuite de narration interactive qui est livrée avec des livres d’histoires magnifiquement illustrés pour les enfants. Chaque histoire est accompagnée d’illustrations colorées originales, de narrations et d’effets sonores!” Les enfants non seulement lisent, mais apprennent également à lire et à prononcer clairement les mots, ce qui signifie donc que l’application enregistre et évalue les performances de l’enfant. Google reste vague quant à la manière dont les données des enfants seront utilisées :

Les pratiques concernant la confidentialité et la protection des données peuvent varier selon votre utilisation, votre région et votre âge. Le développeur a fourni ces informations et peut les modifier ultérieurement.

Idem pour de nombreux produits de monitoring pour bébé qui font également appel aux algorithmes ‘intelligents’ enregistrant les expressions faciales, la voix et les mouvements du bébé de manière continue.

Et l’on ne compte plus le nombre de jeux vidéos et d’applications destinées aux enfants où ceux-ci dévoilent leurs moindres faits et gestes, sans avoir conscience de l’impact que cela peut avoir sur leur vie privée ou leur sécurité.

 Stephen Voloso, expert en analyse de données à l’UNICEF, souligne les dangers que cela  pose :

Environ un tiers des utilisateurs en ligne sont des enfants. Nous constatons souvent que les jeunes enfants utilisent des plateformes de médias sociaux ou de partage de vidéos qui n’ont pas été conçues pour eux. Elles sont souvent conçues pour un engagement maximal et reposent sur un certain niveau de profilage, basé sur des ensembles de données qui peuvent ne pas représenter les enfants.

L’IA pourrait utiliser le traitement du langage naturel pour comprendre les mots et les instructions. Elle recueille donc de nombreuses données sur l’enfant, y compris des conversations intimes, et ces données sont stockées dans le Cloud, souvent sur des serveurs commerciaux, ce qui pose des problèmes de protection de la vie privée.

Encadrer les usages de l’IA

Le besoin d’encadrer les usages de l’intelligence artificielle dans les interactions avec les enfants se fait sentir.

Aux États-Unis, la Commission fédérale du commerce étudie une proposition visant à permettre aux entreprises d’utiliser une “technologie d’estimation de l’âge” par un scan biométrique du visage et l’analyse des données par l’IA, en vue d’obtenir l’autorisation parentale pour l’utilisation des jeux en ligne destinés aux plus de 13 ans. Mais cette identification des usagers qui viole les garanties de protection de la vie privée peine à convaincre les critiques. Selon le magazine Nature, “les États-Unis n’ont pas de lois fédérales générales sur l’IA, ni de règles significatives en matière de protection des données”. Les auditions du Congrès et les réunions présidentielles relatives à la réglementation de l’IA ont débouché sur des promesses “vagues et inapplicables”.

En Europe, la Parlement européen semble avoir saisi l’importance des dangers issus du couplage du recueil des données biométriques aux algorithmes d’analyses d’intelligence artificielle.  Le 14 juin 2023, il a adopté sa position de négociation sur la loi sur l’IA  dans l’intention de veiller à ce que “les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement”. Dans ce cadre, il est question de catégoriser les usages de l’intelligence artificielle ayant un “risque élevé” par rapport à ceux qui sont”limités” ou “inacceptables”.

Ces derniers visent les systèmes considérés comme une menace pour les personnes et seront interdits. Ils comprennent:

• la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques : par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants

• un score social : classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles

• des systèmes d’identification biométrique en temps réel et à distance, tels que la reconnaissance faciale.

Certaines exceptions pourront être envisagées : par exemple, les systèmes d’identification biométrique à distance “a posteriori”, où l’identification se produit après un délai important, seront autorisés à poursuivre des crimes graves et seulement après l’approbation du tribunal.

Le communiqué du parlement précise que, de manière générale, les jouets faisant appel à l’IA relèveront de la législation de l’UE sur la sécurité des produits. En revanche, la place des produits considérés comme ‘éducatifs’ n’est pas spécifiée.

Cette première réglementation sur l’intelligence artificielle émanant d’un régulateur majeur devrait être votée d’ici la fin de l’année et pourrait servir de modèle à d’autres juridictions qui prévoient des législations similaires. Il est certain que réguler les répercussions sur la vie privée et la protection des données est déjà un premier pas, mais c’est largement insuffisant. Il paraît aussi urgent qu’indispensable de mener des recherches approfondies sur les risques qui concernent tous les aspects du développement de la personne humaine, et d’évaluer le degré de menace réel posé par l’intelligence artificielle dans le domaine de l’éducation.