À entendre Alexa annoncer la météo du jour ou Google Home avertir leurs parents de l’état de la circulation chaque matin, les enfants peuvent facilement assimiler ces appareils à de tout-puissants robots. Il est facile de penser que ces petites machines fonctionnent comme par magie. Comme cette prétendue magie fait maintenant partie du quotidien de ces enfants, il est primordial qu’ils et elles comprennent comment ces voix peuvent nous informer des averses qui auront lieu cet après-midi ou du fait que le trajet pour aller à l’école va prendre deux fois plus longtemps aujourd’hui qu’à l’habitude.
L’une des leçons principales que tous les enfants devraient assimiler est que l’IA est le fruit du travail des humains et que les technologies qui l’utilisent ont été élaborées avec des objectifs centrés sur les besoins des humains. Les enfants doivent prendre conscience qu’Alexa et Google Home ne sont pas juste des robots, mais qu’une personne avec tout un arsenal de connaissances en génie informatique est responsable de l’intelligence des voix qui sortent de ces petites machines au design parfait. Et parce que les technologies de ce type fonctionnent avec une IA programmée par des humains, elles sont susceptibles de faire les mêmes erreurs que nous et d’avoir les mêmes préjugés que nous.
C’est justement pour cela que la question de l’éthique en IA se pose. À travers notre initiative #jeunesse2030, nous aspirons à ce que les enfants apprennent les bases de l’IA et participent à des activités qui leur feront découvrir son fonctionnement interne. Nous voulons également les sensibiliser aux problèmes éthiques qui ressortent de la façon dont les technologies de l’IA sont programmées et utilisées.
« Dans le monde actuel, les enfants doivent apprendre à travailler avec l’intelligence artificielle et la technologie, et non contre elles. Il est de notre devoir en tant que parents, tuteurs et enseignants de les soutenir dans l’apprentissage des compétences numériques dont ils et elles auront besoin pour bâtir un avenir meilleur. » — Kate Arthur, fondatrice et PDG de KCJ
Après avoir assimilé que les technologies de l’IA n’apparaissent pas comme par magie, la seconde étape consiste à comprendre comment elles acquièrent tant d’informations. Le simple fait que l’intelligence soit qualifiée « d’artificielle » est un indice, mais la véritable réponse repose dans « les données ». Plus il y en a, mieux c’est! Lorsque les ingénieur·e·s travaillant sur l’IA élaborent une technologie en particulier, ils et elles ont besoin de collecter une immense quantité de données pour garantir une précision maximale. Quelle est la source de ces données? Vous et moi, nos informations personnelles, nos routines quotidiennes, nos centres d’intérêt et la manière dont tout cela se manifeste en ligne. Des questions de confidentialité et d’éthique se posent alors : est-ce éthique d’utiliser des informations n’étant pas nécessairement destinées à l’élaboration d’une technologie en particulier? Étant donné que les enfants vivent dans un monde rempli de technologies et ont maintenant un téléphone portable avant même de devenir adolescents, nous pensons qu’il est important de leur apprendre comment ces technologies fonctionnent.
Une autre des faiblesses potentielles de l’IA est que les machines qui l’utilisent sont souvent influencées par les préjugés de leurs créateur·rice·s. Il ne serait possible d’élaborer un appareil totalement objectif que si son ou sa créateur·rice n’avait aucun préjugé... Ce qui est loin d’être possible à l’heure actuelle. Étant donné que le secteur de l’IA est dominé par un groupe plutôt homogène, les technologies créées peuvent refléter, par exemple, des préjugés raciaux et ainsi engendrer des conséquences discriminatoires. Afin de pallier ce problème, l’une des solutions serait d’attirer davantage de femmes et de personnes de couleur afin de diversifier le secteur de l’IA.
Ces sujets sont sans aucun doute difficiles à expliquer aux enfants, mais pas impossibles! Le Projet Décode Les Algorithmes, une initiative de KCJ et de la CCUNESCO, vise à présenter toutes ces questions d’une façon accessible aux enfants. À travers des projets interactifs, des guides de discussion et des vidéos, nous voulons démontrer aux enfants qu’ils et elles sont plus intelligent·e·s que les IA. En effet, ils et elles peuvent prendre leurs propres décisions et façonner leurs expériences en ligne selon leurs propres désirs.
Notre but est de montrer aux enfants que les appareils utilisant l’IA ne sont pas des robots tout-puissants. En réalité, ces machines sont créées grâce au cerveau et aux mains de personnes humaines, et tout comme ces personnes, elles peuvent faire des erreurs. Qui plus est, nous voulons que les enfants comprennent qu’une erreur est quelque chose de réparable, et qu’ils et elles pourront les réparer de leurs propres mains une fois adultes.