Description du poste
                        
                            Les Modèles de Langage Larges (LLMs), tels que ChatGPT, ont conduit à une nouvelle révolution de l'IA avec des applications dans tous les domaines.
Cependant, les LLMs sont très gourmands en ressources (énergie, calculs, etc.) et, par conséquent, une importante ligne de recherche se concentre sur l'optimisation de ces modèles.
Les chaînes d'outils open-source existantes, telles que LLM Compressor [1] et OpenVINO [2], permettent des optimisations presque automatiques pour compresser les LLMs en versions plus petites, par exemple par quantification (quantization) et élagage (pruning).
Cependant, elles ne ciblent que les matériels conventionnels, tels que les GPU.
De nouveaux paradigmes matériels, tels que le Calcul en Mémoire (IMC), promettent d'accélérer et de réduire la consommation d'énergie des LLMs [3].
Cependant, l'exécution des LLMs sur ces matériels nécessite des optimisations spécifiques en raison des caractéristiques de ces matériels.
Par exemple, ils nécessitent une quantification extrême du modèle (réduction du nombre de bits sur lesquels les données, les poids et les activations sont encodés), car les calculs IMC ont un nombre limité de bits, et l'optimisation de la robustesse du modèle, car les calculs IMC sont sujets aux erreurs.
Ce stage vise à mettre en place une infrastructure logicielle pour mapper, simuler et explorer les performances des LLMs sur le matériel IMC, en partant des chaînes d'outils open-source existantes et en intégrant des fonctionnalités dédiées au matériel IMC, telles que la quantification et les modèles d'erreurs.
L'étudiant sera intégré au sein d'une équipe multidisciplinaire d'ingénieurs de recherche, de doctorants, de post-doctorants et de stagiaires, au cœur d'un écosystème de partenaires industriels et académiques dans le domaine de l'IA embarquée.
Il/elle aura accès à une infrastructure de supercalculateurs.
Il/elle bénéficiera d'une expertise accrue en LLMs, méthodes de compression et matériels efficaces pour l'IA.
En s'appuyant sur les outils et les connaissances développés pendant le stage, l'étudiant pourrait se voir offrir l'opportunité de poursuivre un doctorat sur les méthodes de compression pour les LLMs.
[1] https://github.com/vllm-project/llm-compressor [2] https://github.com/openvinotoolkit/openvino [3] Analog Foundation Models, Büchel et al, NeurIPS 2025.
 Profil du candidat 
Étudiant en dernière année d'école d'ingénieur ou en Master 2 en informatique ou Intelligence Artificielle ou systèmes embarqués.
Forte motivation pour apprendre et contribuer à la recherche en IA.
Bonne connaissance en informatique, en environnement de programmation (Unix), langage (Python), outils de développement (Git).
Bonne connaissance et expérience dans le deep learning et les outils de développement associés (Pytorch ou Tensorflow).
Une connaissance des systèmes embarqués est un plus.
Localisation du poste  Site 
Grenoble
 Ville 
Grenoble
Critères candidat  Diplôme préparé 
Bac+5
- Master 2
 Formation recommandée 
Dernière année d'école d'ingénieur ou Master 2 (informatique ou IA ou systèmes embarqués)
 Possibilité de poursuite en thèse 
Oui
Demandeur  Disponibilité du poste 
02/02/2026                        
                        
                     
                    
                        
                        
                        
                            
                                
                                
                                    
                                    Secteur :
                                    
                                    Informatique / Multimédia / Internet                                
 
                                
                                    
                                    Type de contrat :
                                    Contrat d'apprentissage                                
 
                             
                            
                            
                                
                                
                                    
                                    Compétences requises :
                                    Non renseigné                                
 
                             
                         
                        
                        
                            En savoir + sur l'employeur
                            The CEA is the French Alternative Energies and Atomic Energy Commission ("Commissariat à l'énergie atomique et aux énergies alternatives"). It is a public body established in October 1945 by General de Gaulle. A leader in research, development and innovation, the CEA mission statement has two main objectives: To become the leading technological research organization in Europe and to ensure that the nuclear deterrent remains effective in the future.
The CEA is active in four main areas: low-carbon energies, defense and security, information technologies and health technologies. In each of these fields, the CEA maintains a cross-disciplinary culture of engineers and researchers, building on the synergies between fundamental and technological research.
The civilian programs of the CEA received 49% of their funding from the French government, and 30% from external sources (partner companies and the European Union).
The CEA had a budget of 4,3 billion euros.
The CEA is based in ten research centers in France, each specializing in specific fields. The laboratories are located in the Paris region, the Rhône-Alpes, the Rhône valley, the Provence-Alpes-Côte d'Azur region, Aquitaine, Central France and Burgundy. The CEA benefits from the strong regional identities of these laboratories and the partnerships forged with other research centers, local authorities and universities.                            
                            
Lire la suite
                         
                        
                        
                            
                                Partager cette offre :
                            
                             Copier le lien