Skip to content

Commit

Permalink
Update github refs from mila-udem to mila-iqia
Browse files Browse the repository at this point in the history
  • Loading branch information
jerpint committed Feb 22, 2019
1 parent 0baa92f commit 44c7ae7
Show file tree
Hide file tree
Showing 7 changed files with 39 additions and 39 deletions.
6 changes: 3 additions & 3 deletions README.md
Original file line number Diff line number Diff line change
@@ -1,5 +1,5 @@
# École d'apprentissage profond IVADO-Mila Automne 2018
![alt-txt](https://raw.githubusercontent.com/mila-udem/ecole_dl_mila_ivado_2018_10/master/images/EcoleHiverIVADO2018_banderoleseule-1.png)
![alt-txt](https://raw.githubusercontent.com/mila-iqia/ecole_dl_mila_ivado_2018_10/master/images/EcoleHiverIVADO2018_banderoleseule-1.png)
## Du 22 au 26 octobre 2018
Bienvenue au cours d'apprentissage profond IVADO-Mila! Vous trouverez sur ce répertoire github toutes les informations utiles ainsi que toutes les ressources disponibles pour le cours d'automne 2018.

Expand All @@ -13,8 +13,8 @@ Vous trouverez sur ce github les trois tutoriaux qui seront présentés au cours
Chaque tutoriel comprend une version `à compléter` avec du code template pour vous guider au travers des tutoriaux. Les versions avec solutions seront mises publiques pendant chaque tutoriel.

## Informations pratiques
Nous utiliserons principalement des [jupyter notebooks](http://jupyter.org/) pour tous les calculs scientifiques que nous effectuerons. Afin de faciliter l'utilisation des notebooks, nous recommandons l'utilisation de [Colab](https://colab.research.google.com/github/mila-udem/ecole_dl_mila_ivado_2018_10/) en utilisant le lien vers les tutoriaux contenus dans ce répertoire. Ceci permet d'assurer un environnement de calcul pré-initialisé et offre accès à un GPU/TPU directement sur le cloud. L'utilisation de Colab nécessite une connection internet.
Nous utiliserons principalement des [jupyter notebooks](http://jupyter.org/) pour tous les calculs scientifiques que nous effectuerons. Afin de faciliter l'utilisation des notebooks, nous recommandons l'utilisation de [Colab](https://colab.research.google.com/github/mila-iqia/ecole_dl_mila_ivado_2018_10/) en utilisant le lien vers les tutoriaux contenus dans ce répertoire. Ceci permet d'assurer un environnement de calcul pré-initialisé et offre accès à un GPU/TPU directement sur le cloud. L'utilisation de Colab nécessite une connection internet.

Utilisez ce lien vers les notebooks Colab:

* https://colab.research.google.com/github/mila-udem/ecole_dl_mila_ivado_2018_10/
* https://colab.research.google.com/github/mila-iqia/ecole_dl_mila_ivado_2018_10/
30 changes: 15 additions & 15 deletions tutoriaux/CNN/CNN_a_completer.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -96,7 +96,7 @@
"# Le jeu de données MNIST\n",
"MNIST est le **jeu de données de référence de classification** utilisé en **vision par ordinateur**. Il est hébergé sur le <a href=\"http://yann.lecun.com/exdb/mnist/\">le site de Yann LeCun</a>. Il se compose d'**images de chiffres manuscripts**. Quelques exemples sont données ci-dessous :\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mnist.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mnist.png?raw=true)\n",
"\n",
"Il inclut également des **étiquettes de classes pour chaque image**, indiquant à quel chiffre elle correspond. Par exemple, les étiquettes des images ci-dessus sont 5, 0, 4 et 1.\n",
"\n",
Expand Down Expand Up @@ -322,7 +322,7 @@
"\n",
"Par exemple, si on regarde un perceptron multi-couche qui classifie des images de chiffres du jeu de données MNIST :\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mlp.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/mlp.png?raw=true)\n",
"\n",
"La procédure d'apprentissage typique pour ce modèle consiste en :\n",
"<ul>\n",
Expand Down Expand Up @@ -718,7 +718,7 @@
"\n",
"Un exemple de convolution 2D:\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/numerical_no_padding_no_strides.gif?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/numerical_no_padding_no_strides.gif?raw=true)\n",
"\n",
"\n",
"### Filtres\n",
Expand All @@ -727,13 +727,13 @@
"\n",
"Le filtre utilisé dans l'exemple de convolution précédent est:\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/d7acc4aeb74d9e9cb5fb51482a302196594837fe.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/d7acc4aeb74d9e9cb5fb51482a302196594837fe.png?raw=true)\n",
"\n",
"### Profondeur\n",
"\n",
"On utilise en général un nombre *M* de filtres qui correspondra à la profondeur de la couche. La profondeur en soit est un hyperparamètre du réseau. Ici, chaque filtre (cercles bleu), contribue à une couche de profondeur de l'image en sortie.\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/Conv_layer.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/Conv_layer.png?raw=true)\n",
"\n",
"### Pas\n",
"\n",
Expand All @@ -745,7 +745,7 @@
"\n",
"Voici un exemple de marge à zéro qui préserve la taille de l'entrée à la sortie. Ici, la marge à zéro=1, pas=1, et le filtre est de taille 3x3.\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/same_padding_no_strides.gif?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/same_padding_no_strides.gif?raw=true)\n",
"\n",
"\n",
"\n",
Expand All @@ -755,7 +755,7 @@
"\n",
"Voici un exemple de max pooling:\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/maxpool.jpeg?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/maxpool.jpeg?raw=true)\n",
"\n",
"\n",
"### Champ de vision\n",
Expand All @@ -764,7 +764,7 @@
"\n",
"Ici, le filtre de taille 3x3 (bordures grises) avec pas de 1 a un champ de vision de 5x5 (région jaune)\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/sNBmKMKAz-yJeCuS14usSqw.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/sNBmKMKAz-yJeCuS14usSqw.png?raw=true)\n",
"\n",
"\n",
"### Calculs de dimensions\n",
Expand Down Expand Up @@ -804,7 +804,7 @@
"\n",
"Par exemple, si on prend l'exemple de LeNet 5 pour classifier les images de chiffres du jeu de données MNIST :\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/lenet5.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/lenet5.png?raw=true)\n",
"\n",
"\n",
"La procédure d'apprentissage typique pour ce modèle est la même que pour le perceptron multi-couche et consiste en :\n",
Expand Down Expand Up @@ -1202,7 +1202,7 @@
"### Batch normalization\n",
"Le *batch normalization* est une astuce qui permet, en pratique, au modèle d'apprendre plus vite. Elle agit comme régularisateur en normalisant les entrées par batch, de manière différentiable.\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Hiq-rLFGDpESpr8QNsJ1jg.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Hiq-rLFGDpESpr8QNsJ1jg.png?raw=true)\n",
"\n",
"\n",
"Pour plus d'informations sur le *Batch Normalization*, consultez cet [article](https://arxiv.org/pdf/1502.03167v3.pdf).\n",
Expand Down Expand Up @@ -1436,7 +1436,7 @@
"Le jeu de données que nous allons étudier est un sous-ensemble d'ImageNet qui contient environ $120 \\times 2$ images d'entraînement et $75 \\times 2$ images de test de fourmis et d'abeilles. Le but est de classifier ces deux classes. Ci-dessous, un exemples d'images de ce jeu de données :\n",
"\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/fourmi_abeille.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/fourmi_abeille.png?raw=true)\n",
"\n",
"### Boîte à outils\n",
"**Rappel :** une façon simple de charger les données dans PyTorch est : \n",
Expand Down Expand Up @@ -1614,7 +1614,7 @@
"## Augmentation des données \n",
"Une astuce souvent utilisée pour éviter l'overfit et augmenter la taille apparente du jeu de données d'entrainement est l'augmentation de données. Il s'agit de différents types de transformations aux inputs afin de les déformer légèrement les images. Par exemple, les images peuvent être agrandies, élargies, tournées sur elle mêmes, miroitées, etc. Voici un exemple de différentes augmentations:\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Jujct_Pt-zvdWtSFpHUp3Q.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_Jujct_Pt-zvdWtSFpHUp3Q.png?raw=true)\n",
"\n",
"\n",
"Pour augmenter les données, <a href=\"http://pytorch.org/docs/master/torchvision/transforms.html#torchvision-transforms\">`torchvision.transforms`</a> fournit les transformations d'images courantes. Ces transformations peuvent être appliquées successivement en utilisant la classe <a href=\"http://pytorch.org/docs/master/torchvision/transforms.html#torchvision.transforms.Compose\">`torchvision.transforms.Compose`</a>.\n",
Expand Down Expand Up @@ -1770,7 +1770,7 @@
"\n",
"Un exemple de bloc résiduel est donné ci-dessous :\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/bloc_residuel.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/bloc_residuel.png?raw=true)\n",
"\n",
"\n",
"**Rappel :** <a href=\"http://pytorch.org/docs/master/nn.html#torch.nn.Linear\">`torch.nn.Linear(in_features, out_features)`</a> permet d'appliquer une transformation linéaire à des données d'entrée : y = Ax + b.\n",
Expand Down Expand Up @@ -2364,7 +2364,7 @@
"\n",
"Voici un exemple d'image segmentée par catégrorie:\n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/detection_final.png?raw=true)\n",
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/detection_final.png?raw=true)\n",
"\n",
"\n",
"## Modèles génératifs (exemple des GANs)\n",
Expand All @@ -2373,7 +2373,7 @@
"\n",
"Voici un exemple de GAN sur MNIST: \n",
"\n",
"![Alt Text](https://github.com/mila-udem/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_nAVqFluPijpBWR2tI4gCxg.png?raw=true)\n"
"![Alt Text](https://github.com/mila-iqia/ecole_dl_mila_ivado_2018_10/blob/master/tutoriaux/CNN/images/1_nAVqFluPijpBWR2tI4gCxg.png?raw=true)\n"
]
},
{
Expand Down
Loading

0 comments on commit 44c7ae7

Please sign in to comment.