Informatique

Deep Learning

Deep Learning

Réf 4-IT-DL
Durée 2 jours

Objectifs

Comprendre l'évolution des réseaux de neurones et les raisons du succès actuel du Deep Learning
Utiliser les bibliothèques de Deep Learning les plus populaires
Comprendre les principes de conception, les outils de diagnostic et les effets des différents verrous et leviers
Acquérir de l'expérience pratique sur plusieurs problèmes réels

Infos

Sessions à venir

14 sep-15 sep 2022
14 nov-15 nov 2022
07 déc-08 déc 2022

Certifications :

Nous consulter

Programme

Introduction

  • Créer un premier graphe et l’exécuter dans une session.
  • Cycle de vie de la valeur d’un nœud.
  • Manipuler des matrices.
  • Régression linéaire.
  • Descente de gradient.
  • Fournir des données à l’algorithme d’entraînement.
  • Enregistrer et restaurer des modèles.
  • Visualiser le graphe et les courbes d’apprentissage.
  • Portées de noms. Partage des variables.

Introduction aux réseaux de neurones artificiels

  • Du biologique à l’artificiel.
  • Entraîner un PMC (perceptron multicouche) avec une API TensorFlow de haut niveau.
  • Entraîner un PMC (perceptron multicouche) avec TensorFlow de base.
  • Régler précisément les hyperparamètres d’un réseau de neurones.

Entraînement de réseaux de neurones profonds

  • Problèmes de disparition et d’explosion des gradients.
  • Réutiliser des couches pré-entraînées.
  • Optimiseurs plus rapides.
  • Éviter le sur-ajustement grâce à la régularisation.
  • Recommandations pratiques.

Réseaux de neurones convolutifs

  • L’architecture du cortex visuel.
  • Couche de convolution.
  • Couche de pooling.
  • Architectures de CNN.

Deep Learning avec Keras

  • Régression logistique avec Keras.
  • Perceptron avec Keras.
  • Réseaux de neurones convolutifs avec Keras.

Réseaux de neurones récurrents

  • Neurones récurrents.
  • RNR de base avec TensorFlow.
  • Entraîner des RNR. RNR profonds.
  • Cellule LSTM. Cellule GRU.
  • Traitement automatique du langage naturel.

Autoencodeurs

  • Représentations efficaces des données.
  • ACP avec un autoencodeur linéaire sous-complet.
  • Autoencodeurs empilés.
  • Pré-entraînement non supervisé avec des autoencodeurs empilés.
  • Autoencodeurs débruiteurs. Autoencodeurs épars. Autoencodeurs variationnels. Autres autoencodeurs.

En savoir +

Prérequis

Bonnes connaissances en statistiques
Bonnes connaissances du Machine Learning

Moyens pédagogiques

Réflexion de groupe et apports théoriques du formateur
Travail d'échange avec les participants sous forme de réunion-discussion
Utilisation de cas concrets issus de l'expérience professionnelle
Validation des acquis par des questionnaires, des tests d'évaluation, des mises en situation et des jeux pédagogiques.
Alternance entre apports théoriques et exercices pratiques (en moyenne 30 à 50%)
Remise d'un support de cours.

Possibilité de certification

Nous consulter.