Avatar Reaction to Multimodal Human Behavior
Type de document :
Autre communication scientifique (congrès sans actes - poster - séminaire...): Communication dans un congrès avec actes
Titre :
Avatar Reaction to Multimodal Human Behavior
Auteur(s) :
Chopin, Baptiste [Auteur]
Spatio-Temporal Activity Recognition Systems [STARS]
Daoudi, Mohamed [Auteur]
Centre de Recherche en Informatique, Signal et Automatique de Lille - UMR 9189 [CRIStAL]
Ecole nationale supérieure Mines-Télécom Lille Douai [IMT Nord Europe]
Bartolo, Angela [Auteur]
Laboratoire Sciences Cognitives et Sciences Affectives - UMR 9193 [SCALab]
Spatio-Temporal Activity Recognition Systems [STARS]
Daoudi, Mohamed [Auteur]
Centre de Recherche en Informatique, Signal et Automatique de Lille - UMR 9189 [CRIStAL]
Ecole nationale supérieure Mines-Télécom Lille Douai [IMT Nord Europe]
Bartolo, Angela [Auteur]
Laboratoire Sciences Cognitives et Sciences Affectives - UMR 9193 [SCALab]
Titre de la manifestation scientifique :
ICIAP 2023- 22nd International Conference on Image Analysis and Processing
Ville :
Udine
Pays :
Italie
Date de début de la manifestation scientifique :
2023-09-11
Mot(s)-clé(s) en anglais :
avatar reaction
human motion prediction
facial expression
human motion prediction
facial expression
Discipline(s) HAL :
Informatique [cs]/Vision par ordinateur et reconnaissance de formes [cs.CV]
Sciences du Vivant [q-bio]/Neurosciences [q-bio.NC]/Sciences cognitives
Sciences du Vivant [q-bio]/Neurosciences [q-bio.NC]/Sciences cognitives
Résumé en anglais : [en]
In this paper, we propose a virtual agent application. We develop a virtual agent that reacts to gestures and a virtual environment in which it can interact with the user. We capture motion with a Kinect V2 camera, predict ...
Lire la suite >In this paper, we propose a virtual agent application. We develop a virtual agent that reacts to gestures and a virtual environment in which it can interact with the user. We capture motion with a Kinect V2 camera, predict the end of the motion and then classify it. The application also features a facial expression recognition module. In addition, to all these modules, we include also OpenAI conversation module. The application can also be used with a virtual reality headset.Lire moins >
Lire la suite >In this paper, we propose a virtual agent application. We develop a virtual agent that reacts to gestures and a virtual environment in which it can interact with the user. We capture motion with a Kinect V2 camera, predict the end of the motion and then classify it. The application also features a facial expression recognition module. In addition, to all these modules, we include also OpenAI conversation module. The application can also be used with a virtual reality headset.Lire moins >
Langue :
Anglais
Comité de lecture :
Oui
Audience :
Internationale
Vulgarisation :
Non
Projet ANR :
Commentaire :
Workshops session
Collections :
Source :
Fichiers
- document
- Accès libre
- Accéder au document
- GHB2023.pdf
- Accès libre
- Accéder au document
- document
- Accès libre
- Accéder au document
- GHB2023.pdf
- Accès libre
- Accéder au document