Conférence sur l’AIA lors du CG-FEC
Lors du CG-FEC du 29 mai, Dave Anctil, du cégep de Brébeuf, a fait une présentation sur l’Intelligence artificielle agentive, qui permet d’entrer en interaction avec l’utilisateur. Cette technologie est déjà utilisée par les élèves. Dave Anctil participe aux travaux de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA). Voici un résumé de la conférence.
Qu’est-ce que l’IA générative?
L’IA générative permet un apprentissage profond au moyen de grands modèles statistiques créés par des réseaux de neurones entraînés et probabilistes. Il a donné lieu aux grands modèles de langage (LLM), comme GPT-3 et des LLM multimodaux, comme GPT-4 et Gemini (ils allient images, codes et langages : on peut traduire nos demandes en textes, eux-mêmes traduits ensuite en code, par exemple). L’IA permet de produire des interfaces et des logiciels qui donnent des services (ChatGPT, QuillBot, character.ai, My AI sur Snapchat).
Qu’est-ce que l’IA agentive?
Avec l’IA agentive (AIA), l’objectif n’est plus de donner des consignes passives (écris-moi une dissertation). L’AIA permet, entre autres, d’occuper des tâches faites par les humains, par exemple, de l’enseignement. Parmi les AIA généralistes, on retrouve Office Copilot, GPT-4omni (offert gratuitement aux étudiants) et Gemini ultra. Parmi les AIA spécialisées, on retrouve Devin (Cognition) et Vertex IA.
L’IA agentive est compétente pour répondre à autre chose qu’une commande. Les agents travaillent de manière continue et sont capables d’apprendre en faisant leur propre évaluation. Ils sont donc à même de percevoir et d’agir sur le monde, de planifier un ensemble d’actions, de s’évaluer de manière critique, de sélectionner et d’utiliser des outils adaptés et de collaborer avec d’autres agents. Ils peuvent faire un choix parmi les outils numériques disponibles et les utiliser pour réaliser leurs tâches.
Et en enseignement?
ChatGPTo (omni) est capable d’enseigner des problèmes du niveau primaire jusqu’à un niveau très complexe. Caméra ouverte, cette AIA peut aussi détecter les réactions des élèves (stress, anxiété, satisfaction) pour ajuster ses rétroactions. La plupart des compétences non manuelles seront à la portée de l’AIA d’ici 2025.
Pour en savoir plus sur les répercussions de l’AIA sur l’enseignement, on peut lire Co-intelligence, par Ethan Mollick.
Répercussions sur le monde du travail
Le danger des IA, c’est qu’elles augmentent notre dépendance à leurs services, alors qu’aucune IAC (artificial capable intelligence) n’est canadienne. Certains emplois sont supprimés en raison de la capacité des IAC à effectuer des tâches. Dans les organisations, on intègre des gens capables d’utiliser l’IA pour savoir comment procéder à son déploiement. En augmentant la productivité, on diminue ensuite le nombre d’employé.es nécessaires, ce qui cause (et causera) des mises à pied.
Le secteur privé monopolise les ressources en IA. Il n’y a pas d’expertise en IA dans le secteur public. Les entreprises privées donnent majoritairement des services d’infonuagique, si bien qu’elles ont le contrôle de la progression de l’IA.
La situation au Québec
Nous sommes terriblement en retard… Le conseil de l’innovation du Québec a produit un rapport de recommandations sur l’encadrement de l’IA, mais aucune action n’a été entreprise. Le CEST et l’OBVIA ont aussi produit chacun un rapport sur le sujet.
Microsoft, entreprise privée, contrôle l’offre de services dans nos institutions publiques…
Nous devons à la fois considérer, dans le déploiement de l’IA, la protection du développement cognitif des élèves pour qu’ils et elles aient les compétences associées à leur diplôme, tout comme l’entretien des compétences des travailleuses et travailleurs qui, si elles ne sont pas sollicitées, s’affaiblissent rapidement.
L’IA peut accomplir sans l’Humain environ 30 % des tâches en 2024. Ce que peut accomplir l’humain avec l’IA représente encore un potentiel inconnu et doit être exploré, tout en évitant la déqualification professionnelle (par exemple, on perd rapidement nos capacités de localisation spatiotemporelle depuis l’utilisation du GPS).
Une utilisation responsable?
Les étudiant.es vivent de la confusion à propos des principes directeurs de l’IA et de son utilisation responsable.
Comment adapter de manière responsable la pédagogie?
- Approche par contournement : ramener les évaluations principales en classe
- Approche par intégration éducative :
-
- éthique (intégrité, transparence, honnêteté)
- exploration des méthodes pédagogiques avec l’IA
- proactivité professionnelle : développer et partager nos propres usages et pratiques, créer des communautés de partage
- gouvernement : ressources et formations
On peut amener les élèves à faire une utilisation responsable de l’IA pour permettre la réalisation de tâches complexes qui n’auraient pas pu être accomplies dans un cadre collégial auparavant. Par exemple, l’AIA permet d’avoir accès au contenu en anglais d’un texte scientifique complexe, que l’élève peut faire traduire, vulgariser, expliquer. On peut aussi penser à une rétroaction personnalisée sur les évaluations et travaux.
À propos des détecteurs d’IA
Les détecteurs ne sont pas fiables : il y a des faux positifs et des faux négatifs. Certaines accusations, sur cette base, se sont révélées fausses (avec Compilatio, notamment). Les contenus produits par IA sont originaux, donc les détecteurs ne sont vraiment pas fiables, sauf si le texte a été créé avec un tatouage numérique, ce qui n’est pas courant.
Quel avenir pour ces technologies au Québec?
La technologie de l’IA est en open source, parce que Meta a des modèles gratuits et perfectibles pour nuire à la concurrence. Il serait possible de surentraîner nous-mêmes ces modèles en open source et de les déployer à l’intérieur de nos établissements à peu près sans frais. Au lieu de cela, nous payons des abonnements, alors que ceux-ci ne nous permettent aucun contrôle sur leur déploiement. C’est un enjeu syndical que nous devrions porter à l’attention du pouvoir politique.