diff --git a/web/content/am/TP_Classification.md b/web/content/am/TP_Classification.md index ccce847dd46300836f3208ad190942ece96bd9b4..793d412eb2bb39905497367bce289b8084bc96a0 100644 --- a/web/content/am/TP_Classification.md +++ b/web/content/am/TP_Classification.md @@ -149,6 +149,8 @@ Pour rendre le problème un peu plus dur vous pouvez augmenter la plage de gén + + # Partie (I.b) Classification d'images Pour ce 2e problème un peu plus concret, nous disposons d'images et nous voudrions reconnaitre la classe à laquelle elles appartiennent. Par diff --git a/web/content/am/TP_Installation.md b/web/content/am/TP_Installation.md index 12d2d4d5e9d0bff66280a7667bfe1bddf0680147..63a1125aa59ccba4617af912592ee0961fe8b304 100644 --- a/web/content/am/TP_Installation.md +++ b/web/content/am/TP_Installation.md @@ -4,7 +4,7 @@ ## Les outils de dév en local -Faites les installations de [Anaconda, Numpy, MatPlotlib et PyTorch décrites ici](https://github.com/ucacaxm/DeepLearning_Vision_SimpleExamples). Anaconda est un gestionnaire d’environnements Python. Il vous permet entre autre d'avoir plusieurs installations de Python avec des packages différents sans interférence entre chaque environnement. Si vous avez +Faites les installations de [Anaconda, Numpy, MatPlotlib, OpenCV et PyTorch décrites ici](https://github.com/ucacaxm/DeepLearning_Vision_SimpleExamples). Anaconda est un gestionnaire d’environnements Python. Il vous permet entre autre d'avoir plusieurs installations de Python avec des packages différents sans interférence entre chaque environnement. Si vous avez besoin d'un turorial décrivant l'installation de chaque étape en détails, [regardez ici](https://mrmint.fr/installer-environnement-python-machine-learning-anaconda). diff --git a/web/content/am/TP_Style.md b/web/content/am/TP_Style.md index e646febb15f949d7ff4c2c05f5a407bb7169b7b2..1967b0b82d1beb49a25ad4a8d7c273d0d28d26fb 100644 --- a/web/content/am/TP_Style.md +++ b/web/content/am/TP_Style.md @@ -1,12 +1,13 @@ -# Partie (II) Une application pratique des réseaux : transfert de style entre images +# Partie (II) Transfert de style entre images + +Cette partie est une application pratique des frameworks d'apprentissage profond et des réseaux pré-entrainés. Nous utilisons leur capacité à optimiser (SGD) pour optimiser les pixels d'une image en basant la fonction de perte (loss) sur l'espace latent donné par un réseau pré-entrainé (VGG19). Ce TP vise à implémenter avec PyTorch le transfert de style d'une image à une autre en suivant un papier de Gatys etal présenté à CVPR 2016 : -[Image Style Transfer Using Convolutional Neural Networks](https://www.cv-foundation.org/openaccess/content_cvpr_2016/html/Gatys_Image_Style_Transfer_CVPR_2016_paper.html). Ce n'est pas foncièrement un papier de deep learning et dispose de -nombreux atouts pour un TP en image : utilisation d'un réseau pré-entrainé comme un outil, utilisation du framework de DL/PyTorch pour l'optimisation, code compact et résultats visuels et "rigolo". +[Image Style Transfer Using Convolutional Neural Networks](https://www.cv-foundation.org/openaccess/content_cvpr_2016/html/Gatys_Image_Style_Transfer_CVPR_2016_paper.html). C'est où le deep learning est utilisé comme un outil pour produire des descripteurs pertinents. Ce sujet dispose de nombreux atouts pour un TP en image : utilisation d'un réseau pré-entrainé comme un outil, utilisation du framework de DL/PyTorch pour l'optimisation, code compact, temps de calcul raisonnable (surtout ca) et résultats visuels "rigolo". [Le code vide peut se trouver ici](https://github.com/ucacaxm/DeepLearning_Vision_SimpleExamples/blob/master/src/style_transfer/StyleTransfer_empty.py). diff --git a/web/content/am/TP_skeleton.md b/web/content/am/TP_skeleton.md new file mode 100644 index 0000000000000000000000000000000000000000..8d1d3a54f71f6f93601f45b978f4c881eca9b757 --- /dev/null +++ b/web/content/am/TP_skeleton.md @@ -0,0 +1,6 @@ + +# Partie (III) Synthèse d'une image de posture d'une personne guidée par un squelette + +Ce TP vise à implémenter avec PyTorch le transfert de mouvement d'une vidéo source vers une personne cible, en suivant un papier de XX etal présenté à ICCV 2019 : [Everybody Dance Now](https://openaccess.thecvf.com/content_ICCV_2019/papers/Chan_Everybody_Dance_Now_ICCV_2019_paper.pdf). Cette approche a été choisi pour faire une intriduction au GAN, mais le sujet passe d'abord par une approche qui recherche la donnée la plus proche pour comprendre le passage entre les données et la généralisation qu'offre les réseaux. + + diff --git a/web/content/am/_index.md b/web/content/am/_index.md index fe767cc1c29e347f01637a9bdb792d99af582fe3..72f4e4d1eaaa3433c1e7d2f9be185bead1f896f8 100644 --- a/web/content/am/_index.md +++ b/web/content/am/_index.md @@ -34,6 +34,6 @@ description: "Partie A. Meyer" ## Les TP 1. [Installation](tp_installation) -2. [Partie Classification](tp_classification) +2. [Partie Classification](tp_classification) (si vous maitrisé déjà la classification, CNN, passez à la question suivante) 3. [Partie transfert de style](tp_style)