diff --git a/web/content/am/TP_skeleton.md b/web/content/am/TP_skeleton.md
index 8d1d3a54f71f6f93601f45b978f4c881eca9b757..ade7f90687d21b05cd6d5935b1e228a03c52ae6b 100644
--- a/web/content/am/TP_skeleton.md
+++ b/web/content/am/TP_skeleton.md
@@ -1,6 +1,31 @@
 
 # Partie (III) Synthèse d'une image de posture d'une personne guidée par un squelette
 
-Ce TP vise à implémenter avec PyTorch le transfert de mouvement d'une vidéo source vers une personne cible, en suivant un papier de XX etal présenté à ICCV 2019 : [Everybody Dance Now](https://openaccess.thecvf.com/content_ICCV_2019/papers/Chan_Everybody_Dance_Now_ICCV_2019_paper.pdf). Cette approche a été choisi pour faire une intriduction au GAN, mais le sujet passe d'abord par une approche qui recherche la donnée la plus proche pour comprendre le passage entre les données et la généralisation qu'offre les réseaux.
+Ce TP vise à implémenter avec PyTorch le transfert de mouvement d'une vidéo source vers une personne cible, en suivant un papier de XX etal présenté à ICCV 2019 : [Everybody Dance Now](https://openaccess.thecvf.com/content_ICCV_2019/papers/Chan_Everybody_Dance_Now_ICCV_2019_paper.pdf). Cette approche a été choisie pour faire une intriduction au GAN, mais le sujet passe d'abord par une approche qui recherche la donnée la plus proche pour comprendre le passage entre les données et la généralisation qu'offre les réseaux.
+
+
+## Principe
+
+En entrée, il faut une vidéo de la personne cible effectuant quelques mouvements. Remarque : des approches récentes peuvent se contenter d'une seul image mais l'idée ici est de pratiquer, pas d'être sur le dernier papier existant.
+
+A partir d'une 2e vidéo d'une personne source, l'objectif est de faire effectuer les mouvements de la personne source à la personne cible. Ceci se fait en produisant une nouvelle vidéo, image par image de la personne cible avec la pose/squelette extrait de la vidéo source. Pour extraire le squelette des vidéos, nous utilisons un réseau pré-entrainé avec la bibliothèque [Mediapipe](https://mediapipe-studio.webapps.google.com/studio/demo/pose_landmarker). Le code donné fait déjà ce travail.
+
+
+Le modèle de machine learning doit apprendre à partir des images de la vidéo comment produire une nouvelle image de cette personne dans une nouvelle posture donné en paramètre. Si la vidéo de cette personne est suffisament riche, et contient toutes les postures possibles, on pourrait simplement rechercher l'image dont le squelette est "similaire" (question 1). Ensuite, on va plutôt chercher à avoir un réseau qui va généraliser. Il sera capable de produire une image, même avec une posture qui n'a jamais vraiment été vue. Nous allons essayer un réseau direct, puis un GAN.
+
+
+## Le code de départ 
+
+Dans la classe `VideoSkeleton` le coeur du problème est la fonction
+```  def generator(self, ske): ```
+qui renvoie l'image de la personne cible avec comme posture le squelette `ske` recu en paramètre.
+
+
+
+## Plus proche squelette
+
+## Réseau directe
+
+## GAN
 
 
diff --git a/web/content/nb/_index.md b/web/content/nb/_index.md
index 9fc7d2acb5e54b2e879f973fc95d767ce24038ba..85689b281879a42bfa12cef9448391c9ac7dd0a9 100644
--- a/web/content/nb/_index.md
+++ b/web/content/nb/_index.md
@@ -7,3 +7,9 @@ description: "Partie N. Bonneel"
 
 
 # Partie de N. Bonneel
+
+ * [Le pdf des 2 cours](https://perso.liris.cnrs.fr/nicolas.bonneel/Lyon1_Transport.pdf)
+ * [la version powerpoint (avec animations)](https://perso.liris.cnrs.fr/nicolas.bonneel/Lyon1_Transport.pptx)
+
+ 
+