Une IA peut-elle remplacer un professeur ...
Type de document :
Compte-rendu et recension critique d'ouvrage
Titre :
Une IA peut-elle remplacer un professeur ? Un exemple de dialogue avec Bard-Google, entre hallucinations et illusions réflexives
Auteur(s) :
Las Vergnas, Olivier [Auteur]
Centre Interuniversitaire de Recherche en Education de Lille - ULR 4354 [CIREL]
Trigone-CIREL
CREF: Équipe Apprenance et Formation des Adultes
Rio-Jouet, Antoine [Auteur]
Université de Limoges [UNILIM]

Centre Interuniversitaire de Recherche en Education de Lille - ULR 4354 [CIREL]
Trigone-CIREL
CREF: Équipe Apprenance et Formation des Adultes
Rio-Jouet, Antoine [Auteur]
Université de Limoges [UNILIM]
Titre de la revue :
L'esprit d'Archimède
Pagination :
27-34
Éditeur :
Association ALEA et Faculté des Sciences et Technologies de l'Université de Lille
Date de publication :
2023-11-20
ISSN :
2680-2198
Mot(s)-clé(s) :
intelligence artificielle générative
typologie des réponses troublantes
hallucinations
apprentissage numérique
typologie des réponses troublantes
hallucinations
apprentissage numérique
Mot(s)-clé(s) en anglais :
generative artificial intelligence
typology of the troubling responses
hallucinations
digital learning
typology of the troubling responses
hallucinations
digital learning
Discipline(s) HAL :
Sciences de l'Homme et Société/Education
Résumé :
Dans le contexte de la déferlante des références aux intelligences artificielles génératives, cette publication vise à contribuer à établir une typologie des réponses troublantes fournies par ces algorithmes. Ce travail ...
Lire la suite >Dans le contexte de la déferlante des références aux intelligences artificielles génératives, cette publication vise à contribuer à établir une typologie des réponses troublantes fournies par ces algorithmes. Ce travail est effectué à partir d'un exemple de dialogue avec Bard-Google portant sur le thème "Une IA peut-elle remplacer un professeur ?" qui fonctionne comme étude de cas pour proposer un premier ensemble de termes décrivant les effets troublants générés. Sont ainsi définis : l'incohérence, le déni apparent, l'hallucination en générale et l'hallucination documentatoire en particulier, l'alignement d'allégeance ainsi que l'illusion réflexive qui est un effet bilatéral, concernant autant l'algorithme et l'humain. Ce dernier effet conduit à considérer que les troubles créés par ce type de dialogue doivent se regarder à l'évidence comme à tords partagés.Lire moins >
Lire la suite >Dans le contexte de la déferlante des références aux intelligences artificielles génératives, cette publication vise à contribuer à établir une typologie des réponses troublantes fournies par ces algorithmes. Ce travail est effectué à partir d'un exemple de dialogue avec Bard-Google portant sur le thème "Une IA peut-elle remplacer un professeur ?" qui fonctionne comme étude de cas pour proposer un premier ensemble de termes décrivant les effets troublants générés. Sont ainsi définis : l'incohérence, le déni apparent, l'hallucination en générale et l'hallucination documentatoire en particulier, l'alignement d'allégeance ainsi que l'illusion réflexive qui est un effet bilatéral, concernant autant l'algorithme et l'humain. Ce dernier effet conduit à considérer que les troubles créés par ce type de dialogue doivent se regarder à l'évidence comme à tords partagés.Lire moins >
Résumé en anglais : [en]
In the context of the flood of references to generative artificial intelligences, this publication aims to help establish a typology of the troubling responses provided by these algorithms. This work is based on an example ...
Lire la suite >In the context of the flood of references to generative artificial intelligences, this publication aims to help establish a typology of the troubling responses provided by these algorithms. This work is based on an example of dialogue with Bard-Google on the theme "Can an AI replace a teacher?", which serves as a case study for proposing an initial set of terms describing the troubling effects generated. The following are defined: incoherence, apparent denial, hallucination in general and documentary hallucination in particular, alignment of allegiance and reflexive illusion, which is a bilateral effect, concerning both the algorithm and the human. This last effect leads us to consider that the disorders created by this type of dialogue must obviously be seen as shared wrongs.Lire moins >
Lire la suite >In the context of the flood of references to generative artificial intelligences, this publication aims to help establish a typology of the troubling responses provided by these algorithms. This work is based on an example of dialogue with Bard-Google on the theme "Can an AI replace a teacher?", which serves as a case study for proposing an initial set of terms describing the troubling effects generated. The following are defined: incoherence, apparent denial, hallucination in general and documentary hallucination in particular, alignment of allegiance and reflexive illusion, which is a bilateral effect, concerning both the algorithm and the human. This last effect leads us to consider that the disorders created by this type of dialogue must obviously be seen as shared wrongs.Lire moins >
Langue :
Français
Vulgarisation :
Non
Source :
Fichiers
- document
- Accès libre
- Accéder au document
- LEA10-OLV-ARJ.pdf
- Accès libre
- Accéder au document