On recrute ! Stage 6 mois modélisation prédictive

Appel à candidatures, Offre d'emploi, Recrutement, Stage Recherche
1 juillet 2025 - 30 juin 2026Agglomération grenobloise
Offre de stage 2025-2026: Modélisation prédictive pour l’évaluation automatique de la production orale
logos
Mots-clés : Traitement de la parole, Évaluation automatique, Apprentissage automatique, Représentations de la parole

Lieu :
  • Laboratoire d’Informatique de Grenoble, équipe GETALP - Bâtiment IMAG
    150 place du Torrent - 38400 St Martin d'Hères;
  • Laboratoire de Linguistique et Didactique des Langues (LIDILEM),
    Maison des Langues et des Cultures 1141 rue des Universités, 38400 Saint-Martin-d’Hères
Durée : 6 mois
Début : Automne 2025 (négociable)
Date limite de candidature : Candidature au fil de l’eau
Gratification totale due pour 127 jours (889 heures) : 3 867,15 €*
Gratification mensuelle lissée sur la totalité de la durée de stage (6 mois) : 644,53 €*
* estimé pour un début de contrat au 1er septembre.

Dans le cadre du projet SELF Production Orale, qui vise à développer un module d’évaluation automatique de la production orale en anglais pour le test de positionnement en langues SELF, nous proposons un stage de 6 mois consacré à la modélisation prédictive des scores de compétence de production orale.

Le ou la stagiaire travaillera à partir d’un corpus d’enregistrements d’étudiants évalués par des experts humains. L’objectif principal est d’extraire une variété de paramètres acoustiques, linguistiques et de représentations apprises (par exemple issues de modèles d’apprentissage auto-supervisé), et d’identifier ceux qui permettent de prédire au mieux le niveau de compétence de production orale de l’étudiant. Ces caractéristiques seront ensuite utilisées pour entraîner et évaluer un modèle de prédiction de score, qui sera intégré au test de positionnement SELF.

Le ou la stagiaire intégrera l’équipe GETALP (Groupe d’Étude en Traduction Automatique et Traitement Automatisé des Langues et de la Parole) au sein du laboratoire LIG, en collaboration avec un chercheur à temps plein travaillant sur le projet SELF Production Orale. Une poursuite en doctorat pourra être envisagée à l’issue du stage.

Profil recherché :

  • Solide formation en apprentissage automatique et en traitement de la parole ;
  • Maîtrise de Python et des bibliothèques d’apprentissage automatique (par ex. scikit-learn, PyTorch, ou équivalent) ;
  • Connaissances en technologies de la parole (ASR, analyse prosodique, embeddings, etc.) ;
  • Un intérêt pour l’apprentissage des langues et les technologies éducatives serait un plus.

Pour candidater, merci d’envoyer un CV et une courte lettre de motivation à l’adresse suivante :
sylvain.coulange@univ-grenoble-alpes.fr
 

References:

  • Bannò, S., & Matassoni, M. (2023). Proficiency assessment of L2 spoken English using Wav2Vec 2.0. 2022 IEEE Spoken Language Technology Workshop (SLT). Presented at the 2022 IEEE Spoken Language Technology Workshop (SLT), Doha, Qatar. doi:10.1109/slt54892.2023.10023019
  • Kim, E., Jeon, J.-J., Seo, H., Kim, H. (2022) Automatic Pronunciation Assessment using Self-Supervised Speech Representation Learning. Proc. Interspeech 2022, 1411-1415, doi: 10.21437/Interspeech.2022-10245
  • Zechner, K, & Evanini, K. (2019), Automated Speaking Assessment. Routledge. doi:10.4324/9781315165103-1
  • Hsieh, C.-N., Zechner, K., & Xi, X. (2019). Features measuring fluency and pronunciation. In Automated Speaking Assessment (pp. 101–122). doi:10.4324/9781315165103-7
  • Yoon, S.-Y., Lu, X., & Zechner, K. (2019). Features measuring vocabulary and grammar. In Automated Speaking Assessment (pp. 123–137). doi:10.4324/9781315165103-8
  • Wang, X., & Evanini, K. (2019). Features measuring content and discourse coherence. In Automated Speaking Assessment (pp. 138–156). doi:10.4324/9781315165103-9
  • Wang, X., Evanini, K., Qian, Y., & Mulholland, M. (2021). Automated scoring of spontaneous speech from young learners of English using transformers. 2021 IEEE Spoken Language Technology Workshop (SLT), ets rr 15 9, 705–712. Presented at the 2021 IEEE Spoken Language Technology Workshop (SLT), Shenzhen, China. doi:10.1109/slt48900.2021.9383553

 / 1


 
Publié le  10 juillet 2025
Mis à jour le  10 juillet 2025