Skip to content

Commit

Permalink
Merge pull request #625 from yabellini/yabellini-spanish-translations…
Browse files Browse the repository at this point in the history
…-codefest

traduccionn to Spanish
  • Loading branch information
nicoguaro authored May 16, 2024
2 parents b7289c1 + ce891cc commit 39c96e2
Showing 1 changed file with 14 additions and 0 deletions.
14 changes: 14 additions & 0 deletions glossary.yml
Original file line number Diff line number Diff line change
Expand Up @@ -10467,6 +10467,12 @@
In [deep learning](#deep_learning), an epoch is one cycle in the deep learning process where all
the training data has been fed to the algorithm once. Training a deep neural networks usually
consists of multiple epochs.
es:
term: epoch (aprendizaje profundo)
def: >
En [aprendizaje profundo](#deep_learning), un epoch es un ciclo completo en el proceso del aprendizaje profundo
en el que todos los datos de entrenamiento se han introducido una vez en el algoritmo.
El entrenamiento de una red neuronal profunda consiste en varios epoch.
- slug: learning_rate
ref:
Expand All @@ -10483,6 +10489,14 @@
A large learning rate can speed up training, but the network might overshoot and miss the
minimum. A small learning rate will overshoot less, but will be slower. It can also get more
easily stuck in local minima.
es:
term: tasa de aprendizaje (aprendizaje profundo)
def: >
En [redes neuronales artificiales](#neural_network), la tasa de aprendizaje es un hiperparámetro que
determina el ritmo al que la red ajusta los pesos para poder dar cada vez una mejor aproximación.
Una tasa de aprendizaje grande puede acelerar el entrenamiento, pero la red se puede sobrepasar y
perder el mínimo global. Una tasa de aprendizaje pequeña se sobrepasará menos, pero será más lenta.
También puede caer más fácilmente en mínimos locales.
- slug: class_imbalance
ref:
Expand Down

0 comments on commit 39c96e2

Please sign in to comment.