En Groupe
Certification
Janvier 2026
Apprenez à appliquer et à affiner un modèle de Deep Learning basé sur les Transformers pour des tâches de Traitement du Langage Naturel (NLP). Dans ce cours, vous :
- Construirez un réseau de neurones Transformer en PyTorch
- Développerez une application de reconnaissance d'entités nommées (NER) avec BERT
- Déploierez l'application NER avec ONNX et TensorRT sur un serveur d'inférence Triton
- À la fin de ce cours, vous serez compétent dans l'application des modèles basés sur les Transformers, indépendamment des tâches spécifiques.
- Comment les Transformers sont utilisés comme éléments de base des LLM modernes pour les applications NLP. - Comment l'auto-supervision améliore l'architecture Transformer dans BERT, Megatron et d'autres variantes de LLM pour des résultats NLP supérieurs. - Comment exploiter les modèles LLM modernes pré-entraînés pour résoudre diverses tâches NLP telles que la classification de texte, la reconnaissance d'entités nommées (NER) et la réponse aux questions. -Exploiter les modèles NLP modernes pré-entraînés pour résoudre diverses tâches telles que la classification de texte, la NER et la réponse aux questions. - Gérer les défis liés à l'inférence et déployer des modèles affinés pour des applications en production.