Introduction IA, Machine Learning et Deep Learning
Historique, concepts de base et applications de l’intelligence artificielle loin des fantasmes portés par ce domaine.
Intelligence collective : agréger une connaissance partagée par de nombreux agents virtuels.
Algorithmes génétiques.
Machine Learning usuel : définition.
Types d’actions : classification, régression, clustering, estimation de densité, réduction de dimensionalité.
Machine Learning vs Deep Learning.
Concepts fondamentaux d’un réseau de neurones
Rappel de bases mathématiques.
Le réseau de neurones : architecture, fonctions d’activation et de pondération des activations précédentes.
L’apprentissage d’un réseau de neurones : fonctions de coût, back-propagation, stochastic gradient descent.
Modélisation d’un réseau de neurones.
Data Augmentation : comment équilibrer un dataset ?
Généralisation des résultats d’un réseau de neurones.
Initialisations et régularisations d’un réseau de neurones.
Optimisations et algorithmes de convergence.
Travaux pratiques
Approximation d’une fonction et d’une distribution par un réseau de neurones.
Outils usuels Machine Learning et Deep Learning
Outils de gestion de donnée : Apache Spark, Apache Hadoop.
Outils Machine Learning.
Frameworks DL haut niveau : PyTorch, Keras, Lasagne.
Frameworks DL bas niveau : Theano, Torch, Caffe, Tensorflow.
Démonstration
Applications et limites des outils présentés.
Convolutional Neural Networks
Présentation et fonctionnement fondamental d’un CNN.
Architectures CNN ayant porté l’état de l’art en classification d’images.
Application à un cas de figure de classification usuel (texte ou image).
CNNs pour la génération : super-résolution, segmentation pixel à pixel.
Principales stratégies d’augmentation des Feature Maps pour la génération d’une image.
Travaux pratiques
Mise en œuvre des CNN en utilisant des jeux de données d’images variés.
Recurrent Neural Networks
Présentation et fonctionnement fondamental du RNN.
Evolutions vers les GRU et LSTM.
Problèmes de convergence et vanising gradient.
Architecture de type RNN Encoder Decoder. Utilisation d’un modèle d’attention.
Applications NLP : word/character encoding, traduction.
Applications vidéo : prédiction de la prochaine image générée d’une séquence vidéo.
Travaux pratiques
Mise en œuvre des GRU et LSTM en utilisant des jeux de données variés.
Modèles générationnels : VAE et GAN
Présentation des modèles.
Auto-encoder.
Variational AutoEncoder.
Fondamentaux du Generative Adversarial Networks.
Convergence d’un GAN et difficultés rencontrées.
Travaux pratiques
Mise en œuvre des applications de génération d’images ou de photographies, génération de texte, super résolution..
Deep Reinforcement Learning
Reinforcement Learning.
Utilisation d’un réseau de neurones pour approximer la fonction d’état.
Deep Q Learning : experience replay et application au contrôle d’un jeu vidéo.
Optimisations de la politique d’apprentissage.
Travaux pratiques
Contrôle d’un agent dans un environnement défini par un état et des actions possibles.