4.Conceptos básicos.Reducción de la pérdida
- Hola a todos.Vamos continuar con nuestro curso dedicado al aprendizaje automático.Para ello nos basaremos en un curso de google dedicado a este tema. En este enlace tenéis el curso al completo en castellano: https://developers.google.com/machine-learning/crash-course/ml-intro?hl=es
- En el vídeo anterior vimos que entrenando a los modelos se producen perdida, por lo tanto necesitamos una buena forma de reducirla. El enfoque iterativo es un método muy utilizado para reducir la pérdida.En la siguiente esquema podemos verlo:
- El modelo tomará uno o más atributos como entrada y devuelve una predicción como resultado. Suponemos un modelo que toma un atributo y devuelve una predicción y'=b+w1x1.
- La parte de "Cálculo de pérdida" del diagrama es la función de pérdida que usará el modelo. Supongamos que usamos la función de pérdida al cuadrado en la parte de "Actualizar parámetros" del diagrama.Aquí, el sistema de aprendizaje automático examina el valor de la función de pérdida y genera valores nuevos.El aprendizaje continúa iterando hasta que el algoritmo descubre los parámetros del modelo con la pérdida más baja posible.
- En general, iteras hasta que la pérdida general deja de cambiar o, al menos, cambia muy lentamente. Cuando eso ocurre, decimos que el modelo ha convergido.
- Vamos a sustituir el cuadro verde que cuadro verde que "actualiza los parámetros" por algo más concreto. Para el tipo de problemas de regresión que hemos estado examinando, la representación resultante de pérdida siempre será convexa. La representación siempre tendrá forma de tazón, como la que veis en la siguiente imagen donde tendremos que buscar el punto de convergencia.
- Un mecanismo útil, muy popular en el aprendizaje automático, es el descenso de gradientes. La primera etapa en el descenso de gradientes es elegir un valor de inicio (un punto de partida) para w1. Elegimos un punto de partida levemente mayor que 0. Luego, el algoritmo de descenso de gradientes calcula la gradiente de la curva de pérdida en el punto de partida tomando un paso en dirección de la gradiente negativa para reducir la pérdida lo más rápido posible. Vamos repitiendo el proceso hasta alcanzar el mínimo.
- Os dejo esta explicación en vídeo.En el siguiente capítulo empezamos con el código:
No hay comentarios:
Publicar un comentario