From 17d52553efd7a97508515e3a3318d005857816a9 Mon Sep 17 00:00:00 2001 From: Yanina Bellini Saibene Date: Thu, 29 Feb 2024 07:01:22 -0800 Subject: [PATCH 1/2] traduccionn to Spanish --- glossary.yml | 14 ++++++++++++++ 1 file changed, 14 insertions(+) diff --git a/glossary.yml b/glossary.yml index 81c24e55..f611de2e 100644 --- a/glossary.yml +++ b/glossary.yml @@ -10404,6 +10404,12 @@ In [deep learning](#deep_learning), an epoch is one cycle in the deep learning process where all the training data has been fed to the algorithm once. Training a deep neural networks usually consists of multiple epochs. + es: + term: epoch (deep learning) + def: > + En [deep learning](#deep_learning), un epoch es un ciclo completo en el proceso del aprendizaje profundo + en el que todos los datos de entrenamiento se han introducido una vez en el algoritmo. + El entrenamiento de una red neuronal profunda consiste en varios epoch. - slug: learning_rate ref: @@ -10420,6 +10426,14 @@ A large learning rate can speed up training, but the network might overshoot and miss the minimum. A small learning rate will overshoot less, but will be slower. It can also get more easily stuck in local minima. + es: + term: tasa de aprendizaje (deep learning) + def: > + En [redes neuronales artificiales](#neural_network), la tasa de aprendizaje es un hiperparámetro que + determina el ritmo al que la red ajusta los pesos para poder dar cada vez una mejor aproximación. + Una tasa de aprendizaje grande puede acelerar el entrenamiento, pero la red se puede sobrepasar y + perder el mínimo global. Una tasa de aprendizaje pequeña se sobrepasará menos, pero será más lenta. + También puede caer más fácilmente en mínimos locales. - slug: class_imbalance ref: From ce891cc686ba6db439f6cfa43fb830d534c71000 Mon Sep 17 00:00:00 2001 From: Yanina Bellini Saibene Date: Fri, 1 Mar 2024 18:19:17 -0800 Subject: [PATCH 2/2] Apply suggestions from code review --- glossary.yml | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/glossary.yml b/glossary.yml index f611de2e..577b5bcf 100644 --- a/glossary.yml +++ b/glossary.yml @@ -10405,9 +10405,9 @@ the training data has been fed to the algorithm once. Training a deep neural networks usually consists of multiple epochs. es: - term: epoch (deep learning) + term: epoch (aprendizaje profundo) def: > - En [deep learning](#deep_learning), un epoch es un ciclo completo en el proceso del aprendizaje profundo + En [aprendizaje profundo](#deep_learning), un epoch es un ciclo completo en el proceso del aprendizaje profundo en el que todos los datos de entrenamiento se han introducido una vez en el algoritmo. El entrenamiento de una red neuronal profunda consiste en varios epoch. @@ -10427,7 +10427,7 @@ minimum. A small learning rate will overshoot less, but will be slower. It can also get more easily stuck in local minima. es: - term: tasa de aprendizaje (deep learning) + term: tasa de aprendizaje (aprendizaje profundo) def: > En [redes neuronales artificiales](#neural_network), la tasa de aprendizaje es un hiperparámetro que determina el ritmo al que la red ajusta los pesos para poder dar cada vez una mejor aproximación.