diff --git a/README.md b/README.md
index 125fd5c..916fd80 100644
--- a/README.md
+++ b/README.md
@@ -1,5 +1,5 @@
# École d'apprentissage profond IVADO-Mila Automne 2018
-![alt-txt](https://raw.githubusercontent.com/mila-udem/ecole_dl_mila_ivado_2018_10/master/images/EcoleHiverIVADO2018_banderoleseule-1.png)
+![alt-txt](https://raw.githubusercontent.com/mila-iqia/ecole_dl_mila_ivado_2018_10/master/images/EcoleHiverIVADO2018_banderoleseule-1.png)
## Du 22 au 26 octobre 2018
Bienvenue au cours d'apprentissage profond IVADO-Mila! Vous trouverez sur ce répertoire github toutes les informations utiles ainsi que toutes les ressources disponibles pour le cours d'automne 2018.
@@ -13,8 +13,8 @@ Vous trouverez sur ce github les trois tutoriaux qui seront présentés au cours
Chaque tutoriel comprend une version `à compléter` avec du code template pour vous guider au travers des tutoriaux. Les versions avec solutions seront mises publiques pendant chaque tutoriel.
## Informations pratiques
-Nous utiliserons principalement des [jupyter notebooks](http://jupyter.org/) pour tous les calculs scientifiques que nous effectuerons. Afin de faciliter l'utilisation des notebooks, nous recommandons l'utilisation de [Colab](https://colab.research.google.com/github/mila-udem/ecole_dl_mila_ivado_2018_10/) en utilisant le lien vers les tutoriaux contenus dans ce répertoire. Ceci permet d'assurer un environnement de calcul pré-initialisé et offre accès à un GPU/TPU directement sur le cloud. L'utilisation de Colab nécessite une connection internet.
+Nous utiliserons principalement des [jupyter notebooks](http://jupyter.org/) pour tous les calculs scientifiques que nous effectuerons. Afin de faciliter l'utilisation des notebooks, nous recommandons l'utilisation de [Colab](https://colab.research.google.com/github/mila-iqia/ecole_dl_mila_ivado_2018_10/) en utilisant le lien vers les tutoriaux contenus dans ce répertoire. Ceci permet d'assurer un environnement de calcul pré-initialisé et offre accès à un GPU/TPU directement sur le cloud. L'utilisation de Colab nécessite une connection internet.
Utilisez ce lien vers les notebooks Colab:
-* https://colab.research.google.com/github/mila-udem/ecole_dl_mila_ivado_2018_10/
+* https://colab.research.google.com/github/mila-iqia/ecole_dl_mila_ivado_2018_10/
diff --git a/tutoriaux/CNN/CNN_a_completer.ipynb b/tutoriaux/CNN/CNN_a_completer.ipynb
index 01d865a..5272b65 100644
--- a/tutoriaux/CNN/CNN_a_completer.ipynb
+++ b/tutoriaux/CNN/CNN_a_completer.ipynb
@@ -96,7 +96,7 @@
"# Le jeu de données MNIST\n",
"MNIST est le **jeu de données de référence de classification** utilisé en **vision par ordinateur**. Il est hébergé sur le le site de Yann LeCun. Il se compose d'**images de chiffres manuscripts**. Quelques exemples sont données ci-dessous :\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mnist.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mnist.png?raw=true)\n",
"\n",
"Il inclut également des **étiquettes de classes pour chaque image**, indiquant à quel chiffre elle correspond. Par exemple, les étiquettes des images ci-dessus sont 5, 0, 4 et 1.\n",
"\n",
@@ -322,7 +322,7 @@
"\n",
"Par exemple, si on regarde un perceptron multi-couche qui classifie des images de chiffres du jeu de données MNIST :\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mlp.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mlp.png?raw=true)\n",
"\n",
"La procédure d'apprentissage typique pour ce modèle consiste en :\n",
"
\n",
@@ -718,7 +718,7 @@
"\n",
"Un exemple de convolution 2D:\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/numerical_no_padding_no_strides.gif?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/numerical_no_padding_no_strides.gif?raw=true)\n",
"\n",
"\n",
"### Filtres\n",
@@ -727,13 +727,13 @@
"\n",
"Le filtre utilisé dans l'exemple de convolution précédent est:\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/d7acc4aeb74d9e9cb5fb51482a302196594837fe.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/d7acc4aeb74d9e9cb5fb51482a302196594837fe.png?raw=true)\n",
"\n",
"### Profondeur\n",
"\n",
"On utilise en général un nombre *M* de filtres qui correspondra à la profondeur de la couche. La profondeur en soit est un hyperparamètre du réseau. Ici, chaque filtre (cercles bleu), contribue à une couche de profondeur de l'image en sortie.\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/Conv_layer.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/Conv_layer.png?raw=true)\n",
"\n",
"### Pas\n",
"\n",
@@ -745,7 +745,7 @@
"\n",
"Voici un exemple de marge à zéro qui préserve la taille de l'entrée à la sortie. Ici, la marge à zéro=1, pas=1, et le filtre est de taille 3x3.\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/same_padding_no_strides.gif?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/same_padding_no_strides.gif?raw=true)\n",
"\n",
"\n",
"\n",
@@ -755,7 +755,7 @@
"\n",
"Voici un exemple de max pooling:\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/maxpool.jpeg?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/maxpool.jpeg?raw=true)\n",
"\n",
"\n",
"### Champ de vision\n",
@@ -764,7 +764,7 @@
"\n",
"Ici, le filtre de taille 3x3 (bordures grises) avec pas de 1 a un champ de vision de 5x5 (région jaune)\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/sNBmKMKAz-yJeCuS14usSqw.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/sNBmKMKAz-yJeCuS14usSqw.png?raw=true)\n",
"\n",
"\n",
"### Calculs de dimensions\n",
@@ -804,7 +804,7 @@
"\n",
"Par exemple, si on prend l'exemple de LeNet 5 pour classifier les images de chiffres du jeu de données MNIST :\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/lenet5.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/lenet5.png?raw=true)\n",
"\n",
"\n",
"La procédure d'apprentissage typique pour ce modèle est la même que pour le perceptron multi-couche et consiste en :\n",
@@ -1202,7 +1202,7 @@
"### Batch normalization\n",
"Le *batch normalization* est une astuce qui permet, en pratique, au modèle d'apprendre plus vite. Elle agit comme régularisateur en normalisant les entrées par batch, de manière différentiable.\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Hiq-rLFGDpESpr8QNsJ1jg.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Hiq-rLFGDpESpr8QNsJ1jg.png?raw=true)\n",
"\n",
"\n",
"Pour plus d'informations sur le *Batch Normalization*, consultez cet [article](https://arxiv.org/pdf/1502.03167v3.pdf).\n",
@@ -1436,7 +1436,7 @@
"Le jeu de données que nous allons étudier est un sous-ensemble d'ImageNet qui contient environ $120 \\times 2$ images d'entraînement et $75 \\times 2$ images de test de fourmis et d'abeilles. Le but est de classifier ces deux classes. Ci-dessous, un exemples d'images de ce jeu de données :\n",
"\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/fourmi_abeille.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/fourmi_abeille.png?raw=true)\n",
"\n",
"### Boîte à outils\n",
"**Rappel :** une façon simple de charger les données dans PyTorch est : \n",
@@ -1614,7 +1614,7 @@
"## Augmentation des données \n",
"Une astuce souvent utilisée pour éviter l'overfit et augmenter la taille apparente du jeu de données d'entrainement est l'augmentation de données. Il s'agit de différents types de transformations aux inputs afin de les déformer légèrement les images. Par exemple, les images peuvent être agrandies, élargies, tournées sur elle mêmes, miroitées, etc. Voici un exemple de différentes augmentations:\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Jujct_Pt-zvdWtSFpHUp3Q.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Jujct_Pt-zvdWtSFpHUp3Q.png?raw=true)\n",
"\n",
"\n",
"Pour augmenter les données, `torchvision.transforms` fournit les transformations d'images courantes. Ces transformations peuvent être appliquées successivement en utilisant la classe `torchvision.transforms.Compose`.\n",
@@ -1770,7 +1770,7 @@
"\n",
"Un exemple de bloc résiduel est donné ci-dessous :\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/bloc_residuel.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/bloc_residuel.png?raw=true)\n",
"\n",
"\n",
"**Rappel :** `torch.nn.Linear(in_features, out_features)` permet d'appliquer une transformation linéaire à des données d'entrée : y = Ax + b.\n",
@@ -2364,7 +2364,7 @@
"\n",
"Voici un exemple d'image segmentée par catégrorie:\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/detection_final.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/detection_final.png?raw=true)\n",
"\n",
"\n",
"## Modèles génératifs (exemple des GANs)\n",
@@ -2373,7 +2373,7 @@
"\n",
"Voici un exemple de GAN sur MNIST: \n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_nAVqFluPijpBWR2tI4gCxg.png?raw=true)\n"
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_nAVqFluPijpBWR2tI4gCxg.png?raw=true)\n"
]
},
{
diff --git a/tutoriaux/CNN/CNN_solutions.ipynb b/tutoriaux/CNN/CNN_solutions.ipynb
index 81f0095..5ff3b26 100644
--- a/tutoriaux/CNN/CNN_solutions.ipynb
+++ b/tutoriaux/CNN/CNN_solutions.ipynb
@@ -96,7 +96,7 @@
"# Le jeu de données MNIST\n",
"MNIST est le **jeu de données de référence de classification** utilisé en **vision par ordinateur**. Il est hébergé sur le le site de Yann LeCun. Il se compose d'**images de chiffres manuscripts**. Quelques exemples sont données ci-dessous :\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mnist.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mnist.png?raw=true)\n",
"\n",
"Il inclut également des **étiquettes de classes pour chaque image**, indiquant à quel chiffre elle correspond. Par exemple, les étiquettes des images ci-dessus sont 5, 0, 4 et 1.\n",
"\n",
@@ -322,7 +322,7 @@
"\n",
"Par exemple, si on regarde un perceptron multi-couche qui classifie des images de chiffres du jeu de données MNIST :\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mlp.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mlp.png?raw=true)\n",
"\n",
"La procédure d'apprentissage typique pour ce modèle consiste en :\n",
"\n",
@@ -718,7 +718,7 @@
"\n",
"Un exemple de convolution 2D:\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/numerical_no_padding_no_strides.gif?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/numerical_no_padding_no_strides.gif?raw=true)\n",
"\n",
"\n",
"### Filtres\n",
@@ -727,13 +727,13 @@
"\n",
"Le filtre utilisé dans l'exemple de convolution précédent est:\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/d7acc4aeb74d9e9cb5fb51482a302196594837fe.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/d7acc4aeb74d9e9cb5fb51482a302196594837fe.png?raw=true)\n",
"\n",
"### Profondeur\n",
"\n",
"On utilise en général un nombre *M* de filtres qui correspondra à la profondeur de la couche. La profondeur en soit est un hyperparamètre du réseau. Ici, chaque filtre (cercles bleu), contribue à une couche de profondeur de l'image en sortie.\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/Conv_layer.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/Conv_layer.png?raw=true)\n",
"\n",
"### Pas\n",
"\n",
@@ -745,7 +745,7 @@
"\n",
"Voici un exemple de marge à zéro qui préserve la taille de l'entrée à la sortie. Ici, la marge à zéro=1, pas=1, et le filtre est de taille 3x3.\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/same_padding_no_strides.gif?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/same_padding_no_strides.gif?raw=true)\n",
"\n",
"\n",
"\n",
@@ -755,7 +755,7 @@
"\n",
"Voici un exemple de max pooling:\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/maxpool.jpeg?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/maxpool.jpeg?raw=true)\n",
"\n",
"\n",
"### Champ de vision\n",
@@ -764,7 +764,7 @@
"\n",
"Ici, le filtre de taille 3x3 (bordures grises) avec pas de 1 a un champ de vision de 5x5 (région jaune)\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/sNBmKMKAz-yJeCuS14usSqw.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/sNBmKMKAz-yJeCuS14usSqw.png?raw=true)\n",
"\n",
"\n",
"### Calculs de dimensions\n",
@@ -804,7 +804,7 @@
"\n",
"Par exemple, si on prend l'exemple de LeNet 5 pour classifier les images de chiffres du jeu de données MNIST :\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/lenet5.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/lenet5.png?raw=true)\n",
"\n",
"\n",
"La procédure d'apprentissage typique pour ce modèle est la même que pour le perceptron multi-couche et consiste en :\n",
@@ -1214,7 +1214,7 @@
"### Batch normalization\n",
"Le *batch normalization* est une astuce qui permet, en pratique, au modèle d'apprendre plus vite. Elle agit comme régularisateur en normalisant les entrées par batch, de manière différentiable.\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Hiq-rLFGDpESpr8QNsJ1jg.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Hiq-rLFGDpESpr8QNsJ1jg.png?raw=true)\n",
"\n",
"\n",
"Pour plus d'informations sur le *Batch Normalization*, consultez cet [article](https://arxiv.org/pdf/1502.03167v3.pdf).\n",
@@ -1494,7 +1494,7 @@
"Le jeu de données que nous allons étudier est un sous-ensemble d'ImageNet qui contient environ $120 \\times 2$ images d'entraînement et $75 \\times 2$ images de test de fourmis et d'abeilles. Le but est de classifier ces deux classes. Ci-dessous, un exemples d'images de ce jeu de données :\n",
"\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/fourmi_abeille.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/fourmi_abeille.png?raw=true)\n",
"\n",
"### Boîte à outils\n",
"**Rappel :** une façon simple de charger les données dans PyTorch est : \n",
@@ -1672,7 +1672,7 @@
"## Augmentation des données \n",
"Une astuce souvent utilisée pour éviter l'overfit et augmenter la taille apparente du jeu de données d'entrainement est l'augmentation de données. Il s'agit de différents types de transformations aux inputs afin de les déformer légèrement les images. Par exemple, les images peuvent être agrandies, élargies, tournées sur elle mêmes, miroitées, etc. Voici un exemple de différentes augmentations:\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Jujct_Pt-zvdWtSFpHUp3Q.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Jujct_Pt-zvdWtSFpHUp3Q.png?raw=true)\n",
"\n",
"\n",
"Pour augmenter les données, `torchvision.transforms` fournit les transformations d'images courantes. Ces transformations peuvent être appliquées successivement en utilisant la classe `torchvision.transforms.Compose`.\n",
@@ -1834,7 +1834,7 @@
"\n",
"Un exemple de bloc résiduel est donné ci-dessous :\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/bloc_residuel.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/bloc_residuel.png?raw=true)\n",
"\n",
"\n",
"**Rappel :** `torch.nn.Linear(in_features, out_features)` permet d'appliquer une transformation linéaire à des données d'entrée : y = Ax + b.\n",
@@ -2429,7 +2429,7 @@
"\n",
"Voici un exemple d'image segmentée par catégrorie:\n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/detection_final.png?raw=true)\n",
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/detection_final.png?raw=true)\n",
"\n",
"\n",
"## Modèles génératifs (exemple des GANs)\n",
@@ -2438,7 +2438,7 @@
"\n",
"Voici un exemple de GAN sur MNIST: \n",
"\n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_nAVqFluPijpBWR2tI4gCxg.png?raw=true)\n"
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_nAVqFluPijpBWR2tI4gCxg.png?raw=true)\n"
]
},
{
diff --git a/tutoriaux/MLP/MLP_a_completer.ipynb b/tutoriaux/MLP/MLP_a_completer.ipynb
index 6fdfd45..d18cbef 100644
--- a/tutoriaux/MLP/MLP_a_completer.ipynb
+++ b/tutoriaux/MLP/MLP_a_completer.ipynb
@@ -559,7 +559,7 @@
" \n",
" Voici un exemple d'architecture que nous allons utiliser: \n",
" \n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/MLP/images/figures_tuto.png?raw=true)\n"
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/MLP/images/figures_tuto.png?raw=true)\n"
]
},
{
diff --git a/tutoriaux/MLP/MLP_solutions.ipynb b/tutoriaux/MLP/MLP_solutions.ipynb
index 0c9b93e..c525e03 100644
--- a/tutoriaux/MLP/MLP_solutions.ipynb
+++ b/tutoriaux/MLP/MLP_solutions.ipynb
@@ -882,7 +882,7 @@
" \n",
" Voici un exemple d'architecture que nous allons utiliser: \n",
" \n",
- "![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/MLP/images/figures_tuto.png?raw=true)\n"
+ "![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/MLP/images/figures_tuto.png?raw=true)\n"
]
},
{
diff --git a/tutoriaux/RNN/RNN_a_completer.ipynb b/tutoriaux/RNN/RNN_a_completer.ipynb
index 5c511dd..df966cd 100644
--- a/tutoriaux/RNN/RNN_a_completer.ipynb
+++ b/tutoriaux/RNN/RNN_a_completer.ipynb
@@ -1226,7 +1226,7 @@
"\n",
"L'architecture du modèle de langue neuronal que nous allons utiliser est un LSTM qui définit une séquence de mots en une distribution de probabilité conditionnelle. Pour l'entraînement des paramètres, nous devons déterminer le nombre des $n-1$ mots précédents (`seq_len` dans code) à utiliser pour estimer $p(w_{t} | w_{t-n+1}, \\dots, w_{t-1})$. Les entrées du LSTM à chaque pas de temps $t$ est le *word embedding* correspondant au $t$-ième mot de la sèquence ainsi que l'état récurrent et l'état mémoire au pas de temps précédent, qui sont respectivement $\\mathbf{h}_{t-1}$ et $\\mathbf{c}_{t-1}$. Il est important de préciser que nous utilisons un modèle autorégressif où le mot en entrée au pas de temps $t$ est le mot utilisé en sortie pour le pas de temps $t-1$ du LSTM. Cela nous permet de générer des séquences une fois que le modèle est entraîné. Ce type de modèle est couramment appelé *LSTM-based neural language model* et son architecture est présentée à la figure ci-dessous (avec des caractères comme unité lexicale au lieu des mots).\n",
"\n",
- "![alt-text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/RNN/images/lm2.png?raw=true)\n",
+ "![alt-text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/RNN/images/lm2.png?raw=true)\n",
"\n",
"Pour calculer la distribution de probabilité de sortie, nous utilisons la fonction *softmax* qui retourne un vecteur de dimension $|V|$ (la taille du vocabulaire) en garantissant des probabilités de sorties positives sommant à 1."
]
@@ -1264,7 +1264,7 @@
"outputs": [],
"source": [
"# Cloner git repos pour accéder aux corpus voltaire.txt.\n",
- "!git clone https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10.git"
+ "!git clone https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10.git"
]
},
{
diff --git a/tutoriaux/RNN/RNN_solution.ipynb b/tutoriaux/RNN/RNN_solution.ipynb
index ef15eea..6949502 100644
--- a/tutoriaux/RNN/RNN_solution.ipynb
+++ b/tutoriaux/RNN/RNN_solution.ipynb
@@ -1505,7 +1505,7 @@
"\n",
"L'architecture du modèle de langue neuronal que nous allons utiliser est un LSTM qui définit une séquence de mots en une distribution de probabilité conditionnelle. Pour l'entraînement des paramètres, nous devons déterminer le nombre des $n-1$ mots précédents (`seq_len` dans code) à utiliser pour estimer $p(w_{t} | w_{t-n+1}, \\dots, w_{t-1})$. Les entrées du LSTM à chaque pas de temps $t$ est le *word embedding* correspondant au $t$-ième mot de la sèquence ainsi que l'état récurrent et l'état mémoire au pas de temps précédent, qui sont respectivement $\\mathbf{h}_{t-1}$ et $\\mathbf{c}_{t-1}$. Il est important de préciser que nous utilisons un modèle autorégressif où le mot en entrée au pas de temps $t$ est le mot utilisé en sortie pour le pas de temps $t-1$ du LSTM. Cela nous permet de générer des séquences une fois que le modèle est entraîné. Ce type de modèle est couramment appelé *LSTM-based neural language model* et son architecture est présentée à la figure ci-dessous (avec des caractères comme unité lexicale au lieu des mots).\n",
"\n",
- "![alt-text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/RNN/images/lm2.png?raw=true)\n",
+ "![alt-text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/RNN/images/lm2.png?raw=true)\n",
"\n",
"Pour calculer la distribution de probabilité de sortie, nous utilisons la fonction *softmax* qui retourne un vecteur de dimension $|V|$ (la taille du vocabulaire) en garantissant des probabilités de sorties positives sommant à 1."
]
@@ -1545,7 +1545,7 @@
"cell_type": "code",
"source": [
"# Cloner git repos pour accéder aux corpus voltaire.txt.\n",
- "!git clone https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10.git"
+ "!git clone https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10.git"
],
"execution_count": 18,
"outputs": [