From f047c7a2807f5a62bab65afaac985e61281923ad Mon Sep 17 00:00:00 2001 From: Alexandre MEYER <alexandre.meyer@univ-lyon1.fr> Date: Fri, 27 Oct 2023 12:03:28 +0000 Subject: [PATCH] Update 2 files - /web/content/am/TP_Dance.md - /web/content/am/TP_AEAnimation.md --- web/content/am/TP_AEAnimation.md | 1 + web/content/am/TP_Dance.md | 2 +- 2 files changed, 2 insertions(+), 1 deletion(-) diff --git a/web/content/am/TP_AEAnimation.md b/web/content/am/TP_AEAnimation.md index 77dd617..8fea3d5 100644 --- a/web/content/am/TP_AEAnimation.md +++ b/web/content/am/TP_AEAnimation.md @@ -22,6 +22,7 @@ Le papier qui propose une approche équivalente pour transférer le style d'une * [Le code de départ est à télécharger ici.](https://perso.liris.cnrs.fr/alexandre.meyer/teaching/master_charanim/download/StyleTransfer.zip) * [le code](../doc/tp_style_transfer.zip) + Il faut installer un peu plus de lib que pour pytorch. Panda3D, pyglm, etc. sont nécessaires pour la visualisation des animations. Vous pouvez sûrement pouvoir installer un env avec le fichier .yml fournit ``` conda env create -f environment.yml diff --git a/web/content/am/TP_Dance.md b/web/content/am/TP_Dance.md index ccf936a..70bba39 100644 --- a/web/content/am/TP_Dance.md +++ b/web/content/am/TP_Dance.md @@ -27,7 +27,7 @@ Le modèle de machine learning doit apprendre à partir des images de la vidéo ### Le code de départ -[Téléchargez l'archive du code initial ici](../doc/tp_dance_start.zip) +[Téléchargez l'archive du code initial ici.](../doc/tp_dance_start.zip) Il faut installer les classiques (numpy, pytorch), mais aussi OpenCV (cv2) et mediapipe. Les différents fichiers sont les suivants. -- GitLab