IA128
Intelligence artificielle

Deep Learning : Les fondamentaux

Maîtrisez les bases du deep learning, des réseaux neuronaux aux modèles avancés pour des applications concrètes en IA

Objectif

L’objectif de cette formation est de comprendre l’évolution du Machine Learning vers le Deep Learning, d’en maîtriser les principales architectures de réseaux de neurones et d’en appréhender les bases théoriques, pratiques et méthodologiques pour concevoir, entraîner et évaluer ces modèles avancés.

Préalables

Avoir des bases en programmation et une bonne maîtrise des outils informatiques et statistiques. Connaitre les bases du Machine Learning est recommandé.

Vos gains

  • Comprendre les concepts clés du machine learning et du deep learning ainsi que leurs cas d’usage concrets
  • Concevoir et entraîner des réseaux de neurones en maîtrisant rétropropagation, optimisation et régularisation
  • Manipuler les principaux frameworks et outils (PyTorch, TensorFlow, Scikit-learn) pour développer des modèles
  • Implémenter des architectures avancées comme CNN, RNN (LSTM, GRU) pour des cas en vision et NLP
  • Explorer les modèles génératifs (VAE, GAN) et le reinforcement learning pour résoudre des խնդիր complexes
  • Contenu

    Introduction IA, Machine Learning et Deep Learning

    • L'histoire, les concepts de base et les applications de l'intelligence artificielle sont loin des fantasmes du domaine.
    • Intelligence collective : Connaissances agrégées partagées par de nombreux agents virtuels.
    • Algorithme génétique : Développer une population d'agents virtuels par sélection.
    • Apprentissage automatique normal : sens.
    • Type de tâche : Apprentissage supervisé, apprentissage non supervisé, apprentissage par renforcement.
    • Type d'action : Classification, régression, clustering, estimation de densité, réduction de dimensionnalité.
    • Exemples d'algorithmes d'apprentissage automatique : Régression linéaire, Bayes naïf, Arbres aléatoires.
    • Apprentissage automatique et apprentissage profond : Pourquoi le ML est-il toujours à la pointe (forêts aléatoires et XGBoost) ?
    Voir plus +/-

    Concepts fondamentaux d'un réseau de neurones

    • Rappel de base en mathématiques.
    • Réseau neuronal : Architectures, fonctions d'activation et poids d'activation précédents...
    • Formation d'un réseau de neurones : Fonctions de coût, rétropropagation, descente de gradient stochastique...
    • Modélisation d'un réseau de neurones : Modélisation des données d'entrée et de sortie selon le type de problème.
    • Comprendre les fonctions avec les réseaux de neurones.
    • Comprendre les distributions avec les réseaux de neurones.
    • Croissance des données : Comment équilibrer le jeu de données ?
    • Généralisation des résultats des réseaux de neurones.
    • Initialisation et régularisation du réseau de neurones : Régularisation L1/L2, normalisation batch.
    • Algorithmes d'optimisation et de convergence.

    Démonstration : Fonctions d'ajustement et distributions à l'aide de réseaux de neurones.

    Outils usuels Machine Learning et Deep Learning

    • Outils de gestion de donnée : Apache Spark, Apache Hadoop.
    • Outils Machine Learning usuel : Numpy, Scipy, Sci-kit.
    • Frameworks DL haut niveau : PyTorch, Keras, Lasagne.
    • Frameworks DL bas niveau : Theano, Torch, Caffe, Tensorflow. Démonstration
    • Applications et limites des outils présentés.

    Convolutional Neural Networks (CNN)

    • Principes fondamentaux et applications.
    • Fonctionnement fondamental d'un CNN : couche convolutionnelle, utilisation d'un kernel, padding et stride...
    • Architectures CNN ayant porté l'état de l'art en classification d'images : LeNet, VGG Networks, Network in Network...
    • Utilisation d'un modèle d'attention.
    • Application à un cas de figure de classification usuel (texte ou image).
    • CNNs pour la génération : super-résolution, segmentation pixel à pixel.
    • Principales stratégies d'augmentation des Feature Maps pour la génération d'une image.

    Étude de cas : Innovations apportées par chaque architecture CNN et leurs applications plus globales (convolution 1x1 ou connexions résiduelles).

    Recurrent Neural Networks (RNN)

    • Présentation des RNNs : principes fondamentaux et applications.
    • Caractéristiques de base des RNN : activations cachées, rétropropagation dans le temps, versions dépliées.
    • Développement pour GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory).
    • Problèmes de convergence et gradients de fuite.
    • Types d'architecture classique : prévision de séries temporelles, classification... Architecture codeur-décodeur RNN. Utilisation de modèles en vedette.
    • Applications NLP : encodage de mots/caractères, traduction.
    • Application NLP : prédiction de la prochaine image générée d'une séquence vidéo.

    Démonstration : Différents états et évolutions apportées par les architectures Gated Recurrent Units et Long Short Term Memory.

    Modèles générationnels : VAE et GAN

    • Présentation des modèles générationnels Variational AutoEncoder (VAE) et Generative Adversarial Networks (GAN).
    • Auto-encoder : réduction de dimensionnalité et génération limitée.
    • Variational AutoEncoder : modèle générationnel et approximation de la distribution d'une donnée.
    • Définition et utilisation de l'espace latent. Reparameterization trick.
    • Fondamentaux du Generative Adversarial Networks. Convergence d'un GAN et difficultés rencontrées.
    • Convergence améliorée : Wasserstein GAN, BeGAN. Earth Moving Distance.
    • Applications de génération d'images ou de photographies, génération de texte, super résolution.

    Démonstration : Applications des modèles générationnels et utilisation de l'espace latent.

    Deep Reinforcement Learning

    • Reinforcement Learning.
    • Utilisation d'un réseau de neurones pour appréhender la fonction d'état.
    • Deep Q Learning : experience replay et application au contrôle d'un jeu vidéo.
    • Optimisations de la politique d'apprentissage. On-policy et offpolicy. Actor critic architecture. A3C.
    • Applications : contrôle d'un jeu vidéo simple ou d'un système numérique.

    Démonstration : Contrôle d'un agent dans un environnement défini par un état et des actions possibles

    💡 Informations utiles

    Nos formations sont offertes à Montréal ou Québec en présentiel ou en format virtuel. Les dates et lieux sont précisés lors de votre choix de session ci-dessous. Si vous avez des questions concernant l'inscription, les horaires, la langue d’enseignement ou les modalités d’annulation, consultez notre FAQ .

    Intervenants

    Durée
    2 jours
    Horaire
    9h à 16h
    Tarif régulier
    1 035 $
    Tarif préférentiel Un tarif préférentiel est accordé pour chacun des cours aux organismes publics, aux membres de certaines associations ainsi qu’aux entreprises ayant une entente avec Technologia (voir FAQ). Pour la liste complète des entités admissibles, consulter la section « Tarification » des FAQ. Notez également qu’aucun tarif préférentiel n’est accordé pour les formations en ligne. Les rabais accordés sur les formations ne peuvent être cumulables avec aucune autre promotion.
    930 $
    Formation en entreprise

    Vous avez plusieurs employés intéressés par une même formation? Que ce soit en présentiel dans vos bureaux ou à distance en mode virtuel, nous offrons des formations privées adaptées aux besoins de votre équipe. Des tarifs de groupes sont disponibles. Contactez-nous pour plus de détails ou demandez une soumission en ligne.

    Demander une soumission

    Demander une formation en entreprise

    Vous avez plusieurs employés intéressés par une même formation? Que ce soit en présentiel dans vos bureaux ou à distance en mode virtuel, nous offrons des formations privées adaptées aux besoins de votre équipe. Des tarifs de groupes sont disponibles. Contactez-nous pour plus de détails ou demandez une soumission en ligne.

    Dites-nous en plus
    Ajout effectué Voir mon panier