TI202

Les essentiels de l’intelligence artificielle

Accédez à 14 webinaires en direct du 2 au 27 septembre et disponibles en rediffusion pour 12 mois

Voir les dates de Formation
  • Durée 14 HEURES
  • Prix régulier 2 200
  • Prix préférentiel 1 980?
  • Lieux
    • Classe virtuelle
  • Nouvelle version
  • Aussi en Formation privée

Objectifs

A la fin de cette formation, les participants seront capables d’énoncer les retombées potentielles des différentes technologies issues de l’intelligence artificielle.

Clientèle visée

Directeurs de TI, directeurs généraux, chefs de projets de développement, développeurs, analystes

Préalable

Aucun.

Note spéciale

L'horaire des webinaires est de 8h30 à 10h HE.

Ce cours est aussi offert en formation privée ou conférence. ?

Détails de la formation

Contenu

Mercredi 2 septembre 2020 - Webinaire 1 : Généralités de l’IA et prérequis mathématiques

  • L’objet de ce séminaire, c’est quoi l’IA, histoire : de la cybernétique à l’IA, comment en est-on arrivé là, la robotique, les grands noms, tout ce qu’il faut savoir pour bien se positionner. L’approche IA nécessite un certain nombre de prérequis mathématiques. Notre objectif ici n’est pas de se noyer dans un jargon protecteur, mais de donner un sens aux principaux outils mathématiques que l’on va rencontrer dans notre cheminement. Approche d’autant plus nécessaire que les algorithmes qui caractérisent les différents aspects de l’IA, Machine Learning, Deep Learning, etc, ont tous une base de ce type. L’important étant de comprendre à « quoi » ils servent plutôt que de détailler le « comment » ils fonctionnent.

Vendredi 4 septembre 2020 - Webinaires 2 : Faisons connaissance avec les réseaux neuronaux, fonctionnement, pondération, transfert

  • Les réseaux neuronaux sont un élément essentiel du montage de l’IA, ce qui ne veut pas dire que tous les algorithmes sont fondés dessus. On est au cœur du fantasme, simuler le comportement d’un cerveau humain. On verra qu’il n’en est rien. On les trouvera essentiellement dans les session «deep learning ». Il est essentiel de bien comprendre leur fonctionnement général, ce qu’ils font et comment sont implémentés les algorithmes d’apprentissage et d’inférence. Un réseau neuronal est constitué d’une couche d’entrée, d’une couche de sortie et d’un ensemble de couches intermédiaires, des niveaux porteurs des traitements de simulation et d’apprentissage. Il nous faut maîtriser leurs différentes organisations, ce qu’est un perceptron, une fonction d’activation, la pondération des liens inter-neurones, le type « forward propagation », la propagation arrière, l’algorithme de « Gradient Descent », la fonction erreur, etc. Nous veillerons à ne pas nous perdre dans les méandres de l’expression mathématique.

Mardi 8 septembre 2020 - Webinaire 3 : Les types de réseaux neuronaux

  • Il existe un grand nombre d’architectures de réseaux neuronaux, selon les applications auxquelles on les destine, RBN (Radial Basis Network), perceptron multi-niveaux, récurrents, LSTM, Hopfield, de type convolution, etc. Chacun d’eux sera présenté avec ses avantages et inconvénients et nature des applications de destination.

Jeudi 10 septembre 2020 - Webinaire 4 : ML : présentation générale

  • Ce qu’est le Machine Learning dans ses grandes lignes, avec sa « fille aînée », le deep learning. L’apprentissage. Trois formes d’apprentissage : supervisé et la nécessité de disposer d’un jeu de données (dataset) sur lequel appliquer l’algorithme, non supervisé et par renforcement. Ce qui les distingue. L’importance de l’annotation, de la normalisation et du compartimentage des données. Peut-on définir la taille optimum d’un dataset, de manière à avoir les plus grands chances d’effectuer une inférence (reconnaissance à partir de données non labellisées) optimale. Sachant que les datasets s’achètent auprès de « brokers » et qu’il convient de ne pas inonder le processus d’apprentissage. Les problèmes de sous et de sur-apprentissage. Les référentiels de datasets. Les métriques d’analyse d’erreurs. Pour chaque famille ML, nous suivrons pas à pas le fonctionnement des algorithmes, avec de nombreuses illustrations, mais sans codage.

Mardi 15 septembre 2020 - Webinaire 5 : ML : apprentissage supervisé, classifications

  • Tout sur les techniques de classification. De nombreuses méthodes sont concernées : régression linéaire, SVM (Support Vector Machines), régression logistique, Naive Bayes (algorithme « naïf » de Bayes), Analyse Discriminante Linéaire, arbres de décision, algorithme des plus proches voisins (K-Nearest Neighbor algorithm). Nous sommes ici au cœur du sujet et chaque technique sera présentée avec un exemple précis. Nous nous ferons aider par les moyens visuels adéquats, car il faut impérativement avoir une idée claire de ce que fait chacun de ces algorithmes, de manière à y recourir lorsque le besoin s’en fera sentir, à travers une API.

Jeudi 17 septembre 2020 - Webinaire 6 : ML : apprentissage supervisé, régressions

  • L’autre grand domaine de l’apprentissage supervisé, consiste à « deviner » une cible linéaire ou non, caractérisée par une valeur numérique, en fonction du dataset d’apprentissage. Certains algorithmes de classification sont utilisables pour les calculs de régression : Naive Bayes, arbres de décision, K-Nearest Neighbors, auxquels s’ajoutent les algorithmes de LARS Lasso, Random Forest, Elastic Net, Ada Boost, LVQ, etc. Exemples concrets. Là encore, il nous faudra prendre le temps de bien poser les jalons.

Mardi 22 septembre 2020 - Webinaire 7 : ML : apprentissage non supervisé, clustering

  • Les algorithmes d’apprentissage non supervisé déterminent par eux-mêmes les caractéristiques d’un élément, ses « features », pour construire un vecteur représentatif constitué d’un certain nombre de ces « features ». Les algorithmes et exemples d’usages : K-Means Clustering, Mean-Shift Clustering, GMM, DBSCAN, HAC, etc. Cette technique regroupe elle aussi deux phases, d’apprentissage et d’inférence. Mais sans nécessiter d’annotations.

Jeudi 24 septembre 2020 - Webinaire 8 : ML : apprentissage non supervisé, association et réduction dimensionnelle, apprentissage par renforcement

  • Les techniques d’association ont pour objet d’analyser les relations existant entre des variables caractéristiques d’un événement ou de détecter ces associations. Il s’agit ici des caractéristiques qui reviennent systématiquement lors de ces événements. La réduction dimensionnelle a pour objet de réduire le nombre de variables analysées et donc de simplifier le modèle (réduction du nombre d’éléments des vecteurs de « features »). Ces algorithmes permettent d’optimiser l’ensemble des conséquences (récompenses ou  punitions), résultant d’une série d’actions portant sur un environnement, dont elles font varier l’état. L’idée est qu’un agent va apprendre la séquence d’actions optimale, qui lui permettra d’obtenir la meilleure récompense au bout du processus. De nombreux algorithmes sont à classer dans cette famille, Q-Learning, SARSA, DQN, DQPG, etc.

Mardi 29 septembre 2020 - Webinaire 9 : Les applications ML, API, langages

  • In fine, les développeurs opteront pour un algorithme adapté au problème qui leur est soumis et choisiront une API et le langage de programmation adéquats. Progression de Python, nombreuses API pour ce langage. Tour d’horizon des applications concernées, avec des exemples concrets et la boîte à outils utilisée. Des exemples de code seront fournis, pour illustrer nos propos, mais sans s’attarder sur la syntaxe.

Jeudi 1er octobre 2020 - Webinaire 10 : Deep learning, généralités

  • Le « deep learning » ou apprentissage en profondeur, est un ensemble de méthodes qui bénéficient des progrès des réseaux neuronaux, pour reconnaître des objets, images, images dans les images, sons, phrases dans une communication téléphonique, etc. C'est une branche particulière du "Machine Learning", avec un grand nombre de couches "cachées", d'où l'idée de "deep" (100 à 200 couches contre quelques couches pour le "Machine Learning"). Extraction automatique des caractéristiques d'entrée : l'algorithme analyse les données soumises. Les mêmes phases que pour le Machine Learning : le système cherche à appliquer une transformation non linéaire aux valeurs d'entrée et à créer un modèle de sortie, c'est la phase d'éducation ou d'entraînement, qui s'effectue sur des données labellisées et dans la seconde, dite de découverte, il améliore le modèle avec une méthode mathématique (dite dérivative) pour "coller" au plus près à la réalité.

Mardi 6 octobre 2020 - Webinaire 11 : Les principaux algorithmes de deep learning et focus sur les réseaux convolutifs, capsules de Hinton

  • De nombreux algorithmes sont exploitables, qui tous sont fondés sur des réseaux neuronaux : RNN, LSTM, RDM, etc. Les réseaux de convolution prêts à l’emploi. Pour chaque algorithme, nous nous appuierons sur un exemple concret et diverses réalisations en ligne.
    Les réseaux convolutifs sont une forme très répandue de réseaux neuronaux artificiels, dédiés à la reconnaissance d’images et au traitement du langage naturel. A l’aide d’exemples concrets, nous allons expliquer le cheminement du processus depuis la décomposition d’une source (image), jusqu’à sa reconnaissance finale, en insistant sur les points clés : kernel, slide, padding, filtrage, la convolution proprement dite qui est une fonction mathématique, le pooling ou simplification des matrices et flattening, la mise à plat finale.
    Les capsules de Hinton sont une évolution des réseaux de deep learning. Une capsule embarque tous les éléments caractéristiques d’un objet, la « pose » : sa position, taille et orientation, luminosité et déformation par rapport à une représentation idéale. La finalité d’un réseau de capsules est de fabriquer un « arbre syntaxique », avec des couches organisées en capsules, la difficulté étant de relier les capsules les unes aux autres, pour témoigner de ce qu’une capsule peut appartenir à une capsule plus globale. Plus récentes que les autres méthodes, les capsules de Hinton commencent à bénéficier d’un apport significatif d’API.

Mardi 13 octobre 2020 - Webinaire 12 : Deep learning : API, langages, applications

  • Tensor Flow : Google, le plus connu, Keras : conçu pour simplifier les mécanismes de deep learning, très utilisé pour les POCs, très prometteur dans le futur, PyTorch (Nvidia), DeepLearning4J (Java), CNTK (Microsoft Cognitive Toolkit), intégré avec les autres outils de Microsoft, etc. C’est ici que l’on va passer en revue les applications possibles de « deep learning », des réalisations concrètes et pratiques, avec des recommandations sur la manière de conduire les projets, sur la distinction qu’il faut faire entre la connaissance intime des algorithmes et leur mise en œuvre, via les API. Comme pour la session 12 du Machine Learning, c’est une phase très importante de notre approche, savoir exactement ce que l’on peut faire avec ces technologies. Le discours sera à la fois métier et technique.

Mardo 20 octobre 2020 - Webinaire 13 : Le futur de l’IA, politique, religion, emplois

  • Dégager le vrai du faux : l’’IA et les emplois, les incompréhensions liées à la robotique, l’arme politique entre les mains des grandes puissances, les risques pour la démocratie, les algorithmes peuvent-ils devenir intelligents et dominer le genre humain. Il se dit n’importe quoi sur le sujet et nous tenons à rétablir la vérité, bien loin des élucubrations marketing des fournisseurs, qui tiennent pour résolus les nombreux problèmes techniques et de compréhension qui se posent aux entreprises intéressées. C’est lors de cette session, que l’interactivité de nos cours sera la plus utile.

Mardi 27 octobre 2020 - Webinaire 14 : Conclusion du séminaire, revue QCM

  • Avant de se quitter, ce dont il faudra se souvenir. Ne pas être trop optimistes sur les capacités actuelles et réelles de l'IA, bien comprendre les principes sous-jacents et pour les non-TI, avoir une idée précise (et prudente) des applications envisageables, ne pas se lancer dans des applications insuffisamment matures. L'IA est plus qu'une technologie, c'est un métier, une spécialité, qui demande un long "apprentissage", préférer les solutions déjà entraînées et ne pas vouloir tout reconstruire de zéro, englober le management dans les cercles de réflexion, ne pas (trop) communiquer sur le futur, qui peut faire peur. Accompagner le changement dans les usages et désamorcer sans les négliger les aspects sociaux qu'induit le passage à l'IA. Un QCM global que nous allons commenter conclura ce séminaire.

Sélectionner la date de formation

  • Classe virtuelle

    2 septembre au 27 octobre 2020 - 14 webinaires

Formateur(s) attitré(s)