La société canadienne à but non lucratif Kids Code Jeunesse (KCJ) s'est récemment engagée à enseigner l'intelligence artificielle à plus de 1 000 000 d’enfants et de 50 000 éducateur·rice·s d'ici 2030. Cette initiative a été lancée pour que les jeunes soient au courant et informés quant à la technologie liée à l'IA qui les entoure - du Google Home sur la table de la cuisine au GPS dans la voiture de leurs parents, en passant par leurs futures boîtes de courriel et leurs comptes de réseaux sociaux
« Quand on regarde leur monde aujourd’hui, l’intelligence artificielle y est déjà pas mal présente », déclare Kate Arthur, PDG et fondatrice de Kids Code Jeunesse. « Et pour rester fidèles à notre mission, qui est de veiller à ce que les enfants soient éduqués à communiquer et à créer avec les outils qui les entourent, ils ont besoin de comprendre comment l’intelligence artificielle fonctionne, ce qu’elle est, et de quelle manière elle affecte leurs environnements de manière à travailler avec l'intelligence artificielle pour faire avancer les choses. »
S'assurer que les enfants apprennent les bases de l'intelligence artificielle est une chose, mais la date fixée par KCJ coïncide avec celle des Objectifs mondiaux pour le développement durable des Nations Unies; une initiative née en 2015 de la rencontre de dirigeants du monde qui ont décidé quels objectifs devaient être atteints d’ici 2030 pour mettre fin à la pauvreté, lutter contre les inégalités, mettre fin aux changements climatiques, etc.
Pour appuyer l’ONU, Kids Code Jeunesse a donc décidé de fusionner les deux objectifs en un seul et de créer #jeunesse2030. Pour Kate Arthur fusionner les deux initiatives est non seulement une excellente occasion d'aider le Canada à atteindre ses objectifs, mais également de proposer aux enfants des projets concrets utilisant la technologie pour atteindre ces objectifs. Les compétences qu’ils acquerront au cours de ce processus pourront s’avérer utiles quand ils feront face à divers problèmes dans leurs communautés respectives.
« À travers ce que nous faisons et ce que nous enseignons, nous souhaitons également que les enfants éprouvent de l’empathie », ajoute Lucie Luneau, responsable du programme éducatif de KCJ sur l’IA. « Il s’agit d’avoir de meilleures compétences techniques, mais aussi de se donner une raison d’être et de reconnaître ce qui est urgent, voir ce qu’on peut faire et comment on peut s’impliquer dans notre communauté. »
Amener les enfants à avoir un impact positif grâce à l’utilisation de l’intelligence artificielle se fera en trois étapes, représentant la stratégie de KCJ en matière d’IA:
Kids Code Jeunesse a récemment mis à l'essai un atelier en classe et une session de formation d'enseignants à Montréal, dans le but de présenter l'IA aux enseignants de Toronto et de Vancouver avant le lancement du projet à l'échelle nationale en septembre 2019.
Les pilotes sont déjà très prometteurs. Lucie Luneau était mentor lors de la formation d’enseignants à Montréal et elle a déclaré que les éducateur·rice·s étaient heureux·se·s d’explorer l’IA. « C’est vraiment quelque chose qu’il·elle·s sont impatient·e·s d’apprendre », dit-elle. « Parce que c'est la même chose qu’avec la population en général - tout le monde a entendu parler de l'IA, mais ne sait pas vraiment ce que c'est. »
Kate Arthur a observé le même enthousiasme — sans mentionner les rires —des enfants quand elle a participé à l’activité pilote en classe. Elle se souvient que l'enseignante avait utilisé Siri devant ses élèves et avait demandé à l'assistante virtuelle de raconter une blague. Les étudiants étaient ensuite invités à déterminer qui racontait cette blague. Certains pensaient que Siri était une personne, tandis que d'autres disaient que l'enseignante était derrière, mais dans l'ensemble, cela a donné lieu à une excellente discussion sur le fonctionnement de Siri et sur le rôle de l'intelligence artificielle dans ce processus.
Kate Arthur affirme qu'enseigner l'IA aux enfants améliorera le développement de leur pensée critique et leur capacité à comprendre les probabilités et statistiques. Sans compter que comprendre le fonctionnement des systèmes d’intelligence artificielle vient couper court à l’idée selon laquelle l’intelligence artificielle est de la magie pure.
Un autre aspect dont les enfants prendront connaissance au cours de cette formation est le concept de compréhension au moyen d’exemples comme l’explique Hugo Larochelle, informaticien accompli, praticien de l'IA et dirigeant du groupe montréalais Google IA.
« À l’école, nous commençons souvent à comprendre un concept si le·a professeur·e en donne un exemple », dit-il. « Je pense qu'il est important de leur montrer que les machines sont capables de faire cela jusqu’à un certain point, car ils commencent alors à comprendre la relation. »
« Cela signifie que s’ils entendent dire plus tard dans leur vie qu’une technologie particulière est basée sur l’apprentissage automatique, alors je pense que cela leur dira que: « ah! ok, cela signifie que certaines données ont été collectées quelque part et la relation entre les deux aspects sera alors plus claire », ajoute Larochelle.
Être conscient de la relation de cause à effet entre les données et le comportement qu'elles déclenchent dans une machine donnée est également au cœur de l'éthique de l'IA, dit-il. « Tout se résume à comprendre qu’il existe une relation entre ce que la machine va faire et les données que nous lui fournissons. »
Hugo Larochelle nous rappelle que toute conversation sur la technologie, et en particulier sur l'intelligence artificielle, devrait inclure une discussion sur ses pièges potentiels. Et ces pièges proviennent de ce qu’en font les gens à l'origine, et non de la technologie elle-même. Il explique que tout outil technologique est fondamentalement neutre et que ce sont les praticiens et les utilisateurs qui déterminent le résultat final. « Ce qu’on obtient de la technologie est fonction de la qualité de ce que nous en faisons », ajoute Hugo Larochelle.
Ce qu'il souhaite aussi que les enfants - et tout le monde d'ailleurs - comprenne, c'est que l'IA n'est pas une technologie globale capable de résoudre un million de choses à la fois. « Les gens ont tendance à penser que la même intelligence artificielle résout un tas de choses différentes», explique Hugo Larochelle. «Cependant, chaque système ne peut vraiment faire qu’une chose pour le moment. Et c’est relativement simple comparé à notre propre intelligence. »
Hugo Larochelle souhaite que les gens cessent de penser l'intelligence artificielle comme un robot tout-puissant aux capacités infinies - c’est une prouesse technologique qu'il estime loin d'être accomplie. « Nous avons encore beaucoup de chemin à faire ne serait-ce que pour nous approcher du spectre complet de l’intelligence dont nous disposons », ajoute-t-il.
« En fin de compte, à nous de choisir en tant que société ce vers quoi nous nous dirigeons avec l'IA et ce que nous en faisons. »