Deep Learning avancé
Computer Vision
(3 jours)


Apprenez à maitriser les fondamentaux de la vision par ordinateur

Nb. de jours
3
Présentiel ?
Oui
Distanciel ?
Oui
Min. participants
2
Max. participants
8
Lieu
Toulouse, Paris, etc.
Tarif
2400€ HT
Deep Learning avancé <br/> Computer Vision <br/>(3 jours)
Depuis 2012, le Deep Learning a révolutionné le domaine de la vision par ordinateur. Lors de la compétition annuelle ILSVRC (ImageNet Large Scale Visual Recognition Challenge) dont l’objectif est de détecter et classifier précisément des objets et des scènes dans les images naturelles, l’utilisation du Deep Learning a permis de faire baisser le taux d’erreur de classification de 25% à 16%. Ceci n’était que les prémisses de cette révolution car les deux années suivantes ont vu le taux d’erreur baisser drastiquement à quelques pourcents.
Vous connaissez d’ores et déjà les principes fondamentaux du Deep Learning et vous avez déjà mis en oeuvre différentes architectures de réseaux de neurones, mais vous souhaitez en savoir plus sur les opportunités proposées par le Deep Learning dans le domaine de la vision par ordinateur, cette formation est faite pour vous.

Objectifs

  • Mettre en place un prétraitement efficace d’un jeu de données d’image Augmenter le jeu de données d’image
  • Réutiliser des modèles existants avec du transfer learning
  • Maîtriser les différentes architectures de réseaux de neurones permettant de réaliser des détections d’objets, de la segmentation sémantique et le suivi des objets et reconnaissance des actions
  • Mettre en œuvre des cas concrets pour chaque type de réseaux
  • Exécuter des calculs sur des CPUs, GPUs et TPUs
  • Mesurer la pertinence des modèles mis en œuvre & Visualiser l’apprentissage
  • Déployer un modèle en production
Alexia Audevart
Pour connaitre les dates des prochaines sessions,
pour adapter le programme à vos besoins
ou pour obtenir des informations complémentaires,
contactez nous!

Méthode pédagogique

  • Composée à 70% de pratique, cette formation utilise des exercices illustrés et didactiques.
  • Une évaluation quotidienne de l’acquisition des connaissances de la veille est effectuée.
  • Une synthèse est proposée en fin de formation.
  • Une évaluation à chaud sera proposée au stagiaire à la fin du cours.
  • Un support de cours sera remis à chaque participant comprenant les slides sur la théorie, les exercices.
  • Une feuille d’émargement par demi-journée de présence est fournie en fin de formation ainsi qu’une attestation de fin de formation si le stagiaire a bien assisté à la totalité de la session.
  • Un suivi et un échange avec les participants seront mis en place quelques jours après la formation.

Pré-requis

  • Les stagiaires doivent avoir une expérience en Deep Learning ou avoir suivi la formation Workshop Deep Learning (maîtrise des concepts du Machine Learning et avoir mis en œuvre différentes architectures de réseaux de neurones : convolutionnels, récurrents, …)
  • La connaissance du langage Python, des librairies scientifiques (scikit learn, pandas, numpy) et du framework Deep Learning TensorFlow est nécessaire.

Publics

  • Data Analysts
  • Data Scientists
  • Développeurs

Évaluation

Cette formation ne nécessite pas d’avoir recours à une évaluation formalisée des acquis

Programme

Classification des images

  • Création d’un jeu de données d’images
  • Pré-traitement des images
  • Augmentation des images
  • Convolution et Pooling
  • Architectures CNN de référence : LeNet, AlexNet, Inception, VGG, ResNet, Xception, SENet, etc.
  • Transfer learning : utilisation de modèles pré-entrainés
  • Classification et Localisation

TP : Classification d’images

Détection d’objets : processus de recherche d’instances d’objets dans des images ou des vidéos

  • Sliding window detectors
  • Region Proposal Networks (RPN) : R-CNN, Fast R-CNN, Faster R-CNN
  • Single Shot detector : YOLO, RetinaNet

TP : Détection d’objets via du transfer learning

Segmentation sémantique et d’instance

  • Fully Convolutional
  • Instance Segmentation : Mask R-CNN
  • Downsampling et Upsampling
  • Semantic Segmentation : U-Net

TP : Développement d’un modèle de segmentation sémantique

Transformers

  • Sequence to sequence learning
  • Attention
  • Transformer pour le traitement naturel du langage
  • Transformer pour la vision par ordinateur

TP : Développement du modèle Vision Transformer – ViT

Suivi d’objets et reconnaissance d’actions

  • Optical Flow : FlowNet & RAFT
  • Pose Estimation : PoseNet & MoveNet

TP : Développement d’un modèle de reconnaissance d’actions

Les modèles génératifs

  • Deep Generative Models
  • Auto Encoders
  • Generative Adversarial Network (GAN)

TP : Développement d’un GAN

Transfert de style

  • StyleNet

TP : Application du style d’un tableau à une image

FREN