diff --git a/web/content/am/TP_AEAnimation.md b/web/content/am/TP_AEAnimation.md
index 77dd617abebc3c048abd71122a672bbdd7ece08f..8fea3d514ca468eacb02e95a026a8f5ddf280295 100644
--- a/web/content/am/TP_AEAnimation.md
+++ b/web/content/am/TP_AEAnimation.md
@@ -22,6 +22,7 @@ Le papier qui propose une approche équivalente pour transférer le style d'une
  * [Le code de départ est à télécharger ici.](https://perso.liris.cnrs.fr/alexandre.meyer/teaching/master_charanim/download/StyleTransfer.zip)
  * [le code](../doc/tp_style_transfer.zip)
 
+
 Il faut installer un peu plus de lib que pour pytorch. Panda3D, pyglm, etc. sont nécessaires pour la visualisation des animations. Vous pouvez sûrement pouvoir installer un env avec le fichier .yml fournit
 ```
     conda env create -f environment.yml
diff --git a/web/content/am/TP_Dance.md b/web/content/am/TP_Dance.md
index ccf936ac4d336a8ca66ad098984d9215f609412d..70bba39a61426c0b44d0f871010774077aa2e375 100644
--- a/web/content/am/TP_Dance.md
+++ b/web/content/am/TP_Dance.md
@@ -27,7 +27,7 @@ Le modèle de machine learning doit apprendre à partir des images de la vidéo
 
 ### Le code de départ 
 
-[Téléchargez l'archive du code initial ici](../doc/tp_dance_start.zip)
+[Téléchargez l'archive du code initial ici.](../doc/tp_dance_start.zip)
 Il faut installer les classiques (numpy, pytorch), mais aussi OpenCV (cv2) et mediapipe.
 
 Les différents fichiers sont les suivants.