Les ateliers en classe gratuits sont de retour!

Financé par CanCode

Pourquoi enseigner l’IA aux enfants?

Amener les enfants à bien comprendre le monde qui les entoure pour le plus grand bien de tous.

Katherine Lissitsa
6 mai 2019

La société canadienne à but non lucratif Kids Code Jeunesse (KCJ) s'est récemment engagée à enseigner l'intelligence artificielle à plus de 1 000 000 d’enfants et de 50 000 éducateur·rice·s d'ici 2030. Cette initiative a été lancée pour que les jeunes soient au courant et informés quant à la technologie liée à l'IA qui les entoure - du Google Home sur la table de la cuisine au GPS dans la voiture de leurs parents, en passant par leurs futures boîtes de courriel et leurs comptes de réseaux sociaux

« Quand on regarde leur monde aujourd’hui, l’intelligence artificielle y est déjà pas mal présente », déclare Kate Arthur, PDG et fondatrice de Kids Code Jeunesse. « Et pour rester fidèles à notre mission, qui est de veiller à ce que les enfants soient éduqués à communiquer et à créer avec les outils qui les entourent, ils ont besoin de comprendre comment l’intelligence artificielle fonctionne, ce qu’elle est, et de quelle manière elle affecte leurs environnements de manière à travailler avec l'intelligence artificielle pour faire avancer les choses. »

S'assurer que les enfants apprennent les bases de l'intelligence artificielle est une chose, mais la date fixée par KCJ coïncide avec celle des Objectifs mondiaux pour le développement durable des Nations Unies; une initiative née en 2015 de la rencontre de dirigeants du monde qui ont décidé quels objectifs devaient être atteints d’ici 2030 pour mettre fin à la pauvreté, lutter contre les inégalités, mettre fin aux changements climatiques, etc.

Pour appuyer l’ONU, Kids Code Jeunesse a donc décidé de fusionner les deux objectifs en un seul et de créer #jeunesse2030. Pour Kate Arthur fusionner les deux initiatives est non seulement une excellente occasion d'aider le Canada à atteindre ses objectifs, mais également de proposer aux enfants des projets concrets utilisant la technologie pour atteindre ces objectifs. Les compétences qu’ils acquerront au cours de ce processus pourront s’avérer utiles quand ils feront face à divers problèmes dans leurs communautés respectives.

« À travers ce que nous faisons et ce que nous enseignons, nous souhaitons également que les enfants éprouvent de l’empathie », ajoute Lucie Luneau, responsable du programme éducatif de KCJ sur l’IA. « Il s’agit d’avoir de meilleures compétences techniques, mais aussi de se donner une raison d’être et de reconnaître ce qui est urgent, voir ce qu’on peut faire et comment on peut s’impliquer dans notre communauté. »

Amener les enfants à avoir un impact positif grâce à l’utilisation de l’intelligence artificielle se fera en trois étapes, représentant la stratégie de KCJ en matière d’IA:

  • Des formations pour les enseignant·e·s permettront aux éducateur·rice·s canadien·ne·s d'acquérir les compétences et la confiance dont ils ont besoin pour transmettre à leurs élèves ce qu'ils ont appris sur l'IA. Présenter aux enseignant·e·s les concepts de l’intelligence artificielle permettra également d’accélérer la mise en œuvre de l’IA dans les programmes scolaires canadiens - une initiative que KCJ juge nécessaire, étant donné que les enfants d’aujourd’hui représentent la toute première génération à grandir dans un environnement imprégné d’IA. Ils devront se familiariser avec l'IA pour pouvoir prendre des décisions éclairées et informées lorsqu'ils interagiront avec elle.
  • Des ateliers en classe avec les élèves qui prendront trois formes: des activités débranchées pour démarrer de manière intéressante sans l’ordinateur, des exercices pratiques axés sur la vision numérique et / ou la reconnaissance de texte où les enfants peuvent construire un projet au moyen des fonctions de Scratch en lien avec l’intelligence artificielle et, enfin, une discussion sur l’éthique de l’intelligence artificielle. Les ateliers renforceront leur intelligence naturelle et commenceront à les préparer à l’évolution du marché du travail.
  • Le développement de ressources éducatives sur l'intelligence artificielle abordant des questions relatives à l'éthique de l'IA et à la citoyenneté numérique. Ces ressources, qui comprennent un programme, sont créées, développées, testées et validées par des experts reconnus dans les domaines de la recherche, de l’industrie et de l’éducation.

Kids Code Jeunesse a récemment mis à l'essai un atelier en classe et une session de formation d'enseignants à Montréal, dans le but de présenter l'IA aux enseignants de Toronto et de Vancouver avant le lancement du projet à l'échelle nationale en septembre 2019.

Les pilotes sont déjà très prometteurs. Lucie Luneau était mentor lors de la formation d’enseignants à Montréal et elle a déclaré que les éducateur·rice·s étaient heureux·se·s d’explorer l’IA. « C’est vraiment quelque chose qu’il·elle·s sont impatient·e·s d’apprendre », dit-elle. « Parce que c'est la même chose qu’avec la population en général - tout le monde a entendu parler de l'IA, mais ne sait pas vraiment ce que c'est. »

Kate Arthur a observé le même enthousiasme — sans mentionner les rires —des enfants quand elle a participé à l’activité pilote en classe. Elle se souvient que l'enseignante avait utilisé Siri devant ses élèves et avait demandé à l'assistante virtuelle de raconter une blague. Les étudiants étaient ensuite invités à déterminer qui racontait cette blague. Certains pensaient que Siri était une personne, tandis que d'autres disaient que l'enseignante était derrière, mais dans l'ensemble, cela a donné lieu à une excellente discussion sur le fonctionnement de Siri et sur le rôle de l'intelligence artificielle dans ce processus.

Kate Arthur affirme qu'enseigner l'IA aux enfants améliorera le développement de leur pensée critique et leur capacité à comprendre les probabilités et statistiques. Sans compter que comprendre le fonctionnement des systèmes d’intelligence artificielle vient couper court à l’idée selon laquelle l’intelligence artificielle est de la magie pure.

Un autre aspect dont les enfants prendront connaissance au cours de cette formation est le concept de compréhension au moyen d’exemples comme l’explique Hugo Larochelle, informaticien accompli, praticien de l'IA et dirigeant du groupe montréalais Google IA.

« À l’école, nous commençons souvent à comprendre un concept si le·a professeur·e en donne un exemple », dit-il. « Je pense qu'il est important de leur montrer que les machines sont capables de faire cela jusqu’à un certain point, car ils commencent alors à comprendre la relation. »
« Cela signifie que s’ils entendent dire plus tard dans leur vie qu’une technologie particulière est basée sur l’apprentissage automatique, alors je pense que cela leur dira que: « ah! ok, cela signifie que certaines données ont été collectées quelque part et la relation entre les deux aspects sera alors plus claire », ajoute Larochelle.

Être conscient de la relation de cause à effet entre les données et le comportement qu'elles déclenchent dans une machine donnée est également au cœur de l'éthique de l'IA, dit-il. « Tout se résume à comprendre qu’il existe une relation entre ce que la machine va faire et les données que nous lui fournissons. »

Hugo Larochelle nous rappelle que toute conversation sur la technologie, et en particulier sur l'intelligence artificielle, devrait inclure une discussion sur ses pièges potentiels. Et ces pièges proviennent de ce qu’en font les gens à l'origine, et non de la technologie elle-même. Il explique que tout outil technologique est fondamentalement neutre et que ce sont les praticiens et les utilisateurs qui déterminent le résultat final. « Ce qu’on obtient de la technologie est fonction de la qualité de ce que nous en faisons », ajoute Hugo Larochelle.

Ce qu'il souhaite aussi que les enfants - et tout le monde d'ailleurs - comprenne, c'est que l'IA n'est pas une technologie globale capable de résoudre un million de choses à la fois. « Les gens ont tendance à penser que la même intelligence artificielle résout un tas de choses différentes», explique Hugo Larochelle. «Cependant, chaque système ne peut vraiment faire qu’une chose pour le moment. Et c’est relativement simple comparé à notre propre intelligence. »

Hugo Larochelle souhaite que les gens cessent de penser l'intelligence artificielle comme un robot tout-puissant aux capacités infinies - c’est une prouesse technologique qu'il estime loin d'être accomplie. « Nous avons encore beaucoup de chemin à faire ne serait-ce que pour nous approcher du spectre complet de l’intelligence dont nous disposons », ajoute-t-il.

« En fin de compte, à nous de choisir en tant que société ce vers quoi nous nous dirigeons avec l'IA et ce que nous en faisons. »