Une petite démonstration des limites de l’Ia dans le système éducatif

Dans son livre très didactique «Conversations avec ChatGPT sur l’homme, le monde, Dieu et l’intelligence artificielle», Bruno Bérard, nous montre l’étendue du fossé qui existe entre l’intelligence humaine et l’Ia. Dans le premier chapitre qui interroge ChatGPT sur la question de l’homme, l’auteur, après un essaim de thèses proposées par l’Ia, revient avec deux autres questions profondément humaines et portant sur la morale :
1. «Vois-tu des obligations morales à l’homme ?»
Les réponses de ChatGPT sont aussi nombreuses que pour la première question. Il en est de même pour une question plus favorable à développer l’humanité dans les réponses.
2. : «Saurais-tu en quelques mots tirer une conclusion sur une éventuelle obligation morale de l’homme.» La synthèse est mécanique parce que là encore, l’Ia n’a jamais été originale ni précise.
3. Et enfin le Graal des questions «Et toi, qu’en penses-tu ?»
Et voilà la réponse de CHatGPT
«En tant qu’intelligence artificielle développée par OpenAI, je n’ai pas de capacité à éprouver des opinions, des croyances ou des valeurs personnelles. Je suis conçu pour fournir des informations, des analyses et des perspectives basées sur des données et des connaissances existantes. Ma fonction est d’explorer et de présenter différentes perspectives sur des sujets donnés, en aidant les utilisateurs à mieux comprendre les différentes positions et arguments qui peuvent exister. Concernant les obligations morales de l’homme, je peux présenter diverses perspectives philosophiques, éthiques et métaphysiques sur le sujet, mais je ne peux pas exprimer une opinion personnelle à leur sujet. Cela dit, je suis ici pour vous aider à explorer ces perspectives et à approfondir votre réflexion sur la question.»
Mon commentaire
Chatgpt est curieusement le modèle de l’homme d’aujourd’hui qui ne sait plus formuler une opinion personnelle, il est devenu computeur pour ne pas dire «computateur». Cette façon de voir pourrait cependant être perçue comme un appel à l’unanimité (au sens où l’entend Teilhard de Chardin «Une collectivité harmonisée des consciences, équivalente à une sorte de super-conscience», Phénomène humain, p.279). Mais ne sommes-nous pas en train de vivre une dialectique entre l’homme et la machine, dialectique au terme de laquelle, l’homme reproduit les mécanismes de la machine ? On pourrait penser que notre superficialité est en partie liée à notre dépendance excessive à l’égard de l’Ia.
On pourrait, sous peine d’être accusé de conspirationnisme, aller plus loin en nous demandant si les ingénieurs de la Silicon Valley ne sont pas au service de puissances qui veulent une uniformisation de la pensée. L’usage excessif de l’Ia pourrait, sans aucun doute, appauvrir la pensée, créer une sorte d’asthénie intellectuelle. L’éducation, telle que nous la concevons jusqu’ici, n’est pas seulement un système d’instruction, sinon nous ne serions pas différents de l’Ia (car avec des algorithmes, on donne des instructions, des commandes à l’Ia et elle les exécute). L’instruction est chez nous, pour des raisons philosophiques, inséparable de l’éducation : on n’inculque pas seulement des aptitudes et des savoirs, on inculque également des valeurs. On suscite surtout l’autonomie de la pensée.
C’est une lapalissade de dire que l’éducation ne serait pas possible sans la liberté : elle la présuppose et la développe en même temps. Pour parodier Kant, on pourrait risquer la formule : l’éducation est la ratio cognoscendi de la liberté (que serait, en effet, la liberté sans la connaissance ?), mais inversement, cette dernière est la ratio essendi de l’éducation (car nous n’éduquons que parce que celui qui est éduqué peut choisir de faire siennes les acquisitions ou les rejeter).
Le doute, la remise en cause, le questionnement sont au cœur du système éducatif sénégalais et ce, même dans l’éducation informelle. Combien de fois avons-nous posé des questions à notre grand-mère après le conte qu’elle nous a dit ? Combien de fois, lorsqu’on nous amenait aux champs ou à l’école, avons-nous posé la question «lu tax ñuy dém tool ?» «lu tax ñuy dém jàngi ?». Combien de fois nos élèves nous ont-ils posé la question : pourquoi apprend-on la philosophie ? Les mathématiques ? Dans son livre autobiographique (autobiographie partielle) «Ma vie. Souvenirs, rêves et pensées», Jung explique son aversion pour les mathématiques par son incapacité à comprendre l’axiomatique. Il ne pouvait comprendre la formule : si A=B et B=C alors A=C parce que visiblement, selon lui, A, B et C étant des choses différentes ne pouvaient être égales. Ça fait rire évidemment, mas cette anecdote montre que quelles que soient ses faiblesses en maths, Jung pense. L’Ia intègrerait cette formule sans aucune difficulté en la restituerait autant de fois que nécessaire. Or combien de fois sommes-nous en train stresser lorsqu’à la fin d’un cours, aucun élève ne pose une question ou qu’ils ne répondent à aucune des nôtres ?
L’Ia est un formidable outil qui devrait permettre d’augmenter l’intelligence humaine et non la remplacer. Dans le système éducatif, l’Ia sera une sorte de professeur répétiteur, mais aussi de formateur-«remédiateur». La remédiation n’est jamais facile, car les profils et leurs problèmes sont loin d’être homogènes. L’Ia permettra une remédiation paramétrée, personnalisée. De la même manière qu’on parle de plus en plus de médecine paramétrée, l’école va forcément avoir une dimension personnalisée. L’exemple de la médecine est à la fois simple et pédagogique pour tous ceux qui veulent savoir comment l’outil Ia va être décisif dans la remédiation scolaire.
C’est vrai que dans nos pays, il peut paraître absurde de parler de médecine personnalisée, mais ceux qui ont un IPhone et qui ont configuré l’Application Santé peuvent d’ores et déjà entrevoir les promesses de ce système. L’Application vous signale le nombre de pas que vous avez effectués entre T1 et T2 ; les données de votre fiche médicale, les médicaments que vous devez prendre ; votre sommeil, votre fréquence cardiaque. Dans quelques années, votre l’IPhone pourra nous faire des diagnostics avancés et améliorer les méthodes de prévention.
Une telle technologie (qui dépasse le Machine Learning pour mobiliser les grandes capacités de Deep Learning) permettra de réduire les inégalités scolaires (entre riches et pauvres si elle est intégrée à toutes les générations de smartphone), ce qui n’est pas rien ! Ce n’est qu’une question d’algorithme : le paramétrage prendra compte des données détaillées pour permettre à chaque apprenant de remédier à ses carences. Parmi les apprenants qui ont des problèmes de conceptualisation et d’argumentation, certains sont pauvres en vocabulaire, d’autres en problèmes de logique, d’autres ont simplement un problème de langue.
C’est tellement fastidieux pour un professeur de philosophie de devoir corriger les problèmes d’expression (qui deviennent des problèmes logiques), l’usage des connecteurs logiques, la cohérence du raisonnement, son authenticité, etc. On a donc là un formidable outil qu’il s’agira de domestiquer pour régler les problèmes un à un et de les intégrer dans des algorithmes capables de détecter dans la production de l’apprenant ses différentes difficultés pour lui proposer des solutions.
Une autre facilité offerte par l’Ia, notamment dans le domaine de l’évaluation, c’est plus de standardisation, d’objectivité et, par conséquent, d’éthique. N’ayant pas d’émotion, l’Ia est a priori à l’abri de l’influence de l’évaluation d’une copie par la lecture d’autres ; elle isole davantage la subjectivité, les risques de fatigue qui dénaturent l’évaluation classique, etc.
Cela ne veut pas dire cependant (nous l’avons brièvement abordé ci-haut) que l’intégration de l’Ia dans les processus d’apprentissage et d’évaluation est sans risque. L’Ia fait des bêtises ; elle manque terriblement, du moins pour le moment, de capacité de discernement, de faculté symbolique lui permettant de deviner une erreur dans la formulation d’un problème dans le libellé d’un sujet, etc. J’ai personnellement fait deux expériences qui m’ont marqué.
Dans la première j’ai demandé à l’Ia de transformer ma photo en portrait avec le style de Van Gogh : elle m’a tout bonnement produit une superposition de la photo de l’artiste sur la mienne ! Après avoir conçu des logos, je voulais voir si l’Ia pouvait me proposer mieux (ce qui est, en principe, le cas), mais à ma grande surprise, elle a produit un logo dans lequel le texte (légende) renferme une faute d’orthographe ! Je lui ai signalé la faute, et elle m’a répondu, «ne vous inquiétez pas je rectifie et je vous reviens». Mais à ma grande surprise en corrigeant la lettre, elle en a omis une autre dans le mot. J’ai répété la même demande et curieusement, j’avais le même problème dans la solution qu’elle m’a proposée. Ma «solution» a été d’abandonner la demande sur cet appareil et de la reprendre sur un autre pour avoir le résultat que je voulais. Cette expérience me permet de postuler que l’Ia n’est pas capable de réflexion, qu’elle n’apprend pas de ses erreurs. Il y a une infinité de problèmes pareils avec l’Ia, ce qi montre qu’elle exige un travail en amont, une infrastructure conséquente et une surveillance permanente.
Au regard de ce qui précède, nous pensons qu’aucune intégration de l’Ia dans l’éducation ne devrait se faire de manière précipitée. Il y a un travail en amont à faire pour circonscrire clairement les limites pédagogiques de l’Ia, mais également les limites à ne pas franchir pour éviter un système éducatif qui crée des automates à la place des personnes. Dans un autre article, nous reviendrons amplement sur les dangers cognitifs de l’usage immodéré de l’Ia, sur ses conséquences futures dans la survie de notre métier et, plus généralement encore, les problèmes éthiques, notamment les problèmes d’égalité qu’elle pourrait accroître et diminuer selon les politiques mises en place.
Que devient le professeur avec le deep Learning ? Y’a-t-il risque de perte d’emploi ou de diminution de la demande d’enseignants avec l’Ia avancée ? La notation (évaluation sommative) des professeurs par la méthode de feedback avec les apprenants garantit-elle plus d’objectivité dans leur avancement ? Dans quelle mesure l’Ia permettra de réduire les disparités entre zones (localement parlant) et entre pays du Nord et ceux du Sud ? L’intelligence émotionnelle qui fait défaut à l’Ia est-elle sa force ou plutôt sa faiblesse ? L’Ia permet-elle de comprendre les enjeux de la pensée transhumaniste ? Ces questions nous occuperont dans la suite de ce document. (A suivre)
Alassane K KITANE