«Elles comblent un vide émotionnel» : un tiers des ados britanniques utilisant l’IA ont l’impression de parler à un ami

Rentrer de l’école, poser son cartable et raconter sa journée à une intelligence artificielle. Voilà le réflexe de plus en plus d’enfants et d’adolescents d’après l’association Internet Matters, qui œuvre pour la sécurité des jeunes en ligne. L’ONG établie au Royaume-Uni vient de publier un rapport pour mieux comprendre l’utilisation de l’intelligence artificielle par les mineurs, sur la base d’un sondage de 1000 Britanniques âgés de 9 à 17 ans . Elle révèle ainsi que presque deux tiers des répondants (64%) ont déjà utilisé un agent conversationnel. Un chiffre en croissance puisque le nombre d’enfants ayant testé Chat GPT, le modèle d’IA le plus populaire, a doublé en seulement 18 mois.

D’après l’enquête, les jeunes se servent principalement de la technologie comme d’un moteur de recherche. Parmi ceux l’ayant déjà utilisé, 42% des répondants affirment s’aider de l’IA pour faire leurs devoirs, et 40% pour assouvir leur curiosité. «Vous savez comme parfois vous vous posez une question lambda... Il me suffit de m’adresser à My AI [le modèle intégré au réseau social Snapchat ] pour y répondre», explique un adolescent de 15 ans à Internet Matters. «Je ne me souviens même pas de la dernière fois que j’ai tapé une question dans Google», abonde une autre, âgée de 17 ans.

Passer la publicité

Confusion entre l’humain et la machine

Mais au-delà d’une aide à l’apprentissage, Internet Matters alerte sur l’attache émotionnelle qu’une partie des 9-17 ans entretient avec l’IA. «J’ai l’impression de pouvoir sociabiliser avec quelqu’un. Même si ce n’est pas une personne réelle tout le temps, ce n’est pas grave, car tout n’a pas besoin d’être tout à fait réel», estime un adolescent de 14 ans auprès de l’ONG. Pour certains d’entre eux, la frontière entre l’humain et la machine est encore plus floue. «Ce n’est pas un jeu pour moi car le robot peut ressembler à une vraie personne et à un ami», confie un autre jeune du même âge.

Les auteurs du rapport notent par ailleurs que plusieurs répondants emploient des pronoms genrés au lieu du pronom neutre anglophone («they») pour désigner les agents conversationnels, signe d’une personnification de la machine. Au total, plus d’un tiers (35%) des mineurs déclare avoir l’impression de discuter avec un ami lorsqu’ils échangent avec un agent conversationnel. Parmi les jeunes utilisateurs de l’IA, certains y font appel pour bavarder (18%), demander des conseils (23%), y compris sur leurs relations amoureuses et sexuelles, ou même recevoir un soutien émotionnel (3%).

Sécuriser l’utilisation de l’IA

«Les enfants utilisent ces outils pour discuter de sujets qui les intéressent, par ennui ou parce qu’ils n’ont personne à qui parler», décryptent les auteurs du rapport. «Nos conclusions suggèrent que, pour certains enfants, les agents conversationnels comblent un vide émotionnel et social  qui n’est pas pris en charge hors ligne – ils offrent ainsi non seulement de l’information ou divertissement mais aussi un sentiment de connexion.» 

Si l’on ne connaît pas à ce jour les conséquences à long terme de l’utilisation de l’IA, les chercheurs s’inquiètent des dangers de ce phénomène pour le développement et le bien-être des jeunes. Internet Matters, en accord avec d’autres ONG comme l’association française e-Enfance, insiste notamment sur le risque que des utilisateurs mineurs soient confrontés à des réponses inappropriées à leur âge, y compris des contenus à caractère sexuel.

Le rapport se conclut ainsi par une liste de recommandations, rédigée avec l’aide de quatre experts indépendants spécialisés dans l’intelligence artificielle. Elle préconise par exemple la mise en place d’un contrôle parental sur les modèles d’IA (temps d’écran limité, contenus filtrés selon l’âge de l’enfant), ainsi qu’une pédagogie renforcée auprès des jeunes «pour les aider à prendre des décisions éclairées» en cas d’interactions avec des agents conversationnels.