Algorisme del gradient descendent

Il·lustració del gradient descendent d'una funció: els punts apunten al cercle central que és el mínim de la funció

L'algorisme del gradient descendent és un mètode iteratiu d'optimització de primer ordre per a trobar el mínim d'una funció. S'anomena descendent perque el prenen els increments proporcionals al negatiu del gradient de la funció. Si es prenenincrements positius al gradient s'anomena gradient ascendent.[1][2][3]

Aquest mètode s'empra sovint com una extensió de l'algorime de retropropagació usat en l'entrenament de xarxes neuronals artificials.

Descripció

El gradient descendent es basa en el fet que si la funció multivariable F ( x ) {\displaystyle F(x)} està definida i és derivable al voltant d'un punt a {\displaystyle a} , llavors F ( x ) {\displaystyle F(x)} decreix de la manera més ràpida si es va des del punt a {\displaystyle a} en direcció del gradient negatiu de F {\displaystyle F} en a {\displaystyle a} , o sigui F ( a ) {\displaystyle -\nabla F(\mathbf {a} )} . Aleshores la seqüència de punts és :

a n + 1 = a n γ F ( a n ) {\displaystyle \mathbf {a} _{n+1}=\mathbf {a} _{n}-\gamma \nabla F(\mathbf {a} _{n})}

o també :

x n + 1 = x n γ n F ( x n ) ,   n 0. {\displaystyle \mathbf {x} _{n+1}=\mathbf {x} _{n}-\gamma _{n}\nabla F(\mathbf {x} _{n}),\ n\geq 0.}

i la seqüència és monotònica descendent :

F ( x 0 ) F ( x 1 ) F ( x 2 ) , {\displaystyle F(\mathbf {x} _{0})\geq F(\mathbf {x} _{1})\geq F(\mathbf {x} _{2})\geq \cdots ,}

Referències

  1. «Keep it simple! How to understand Gradient Descent algorithm» (en anglès). https://www.kdnuggets.com.+[Consulta: 14 novembre 2018].
  2. S, Suryansh. «Gradient Descent: All You Need to Know» (en anglès). https://hackernoon.com,+12-03-2018.+[Consulta: 14 novembre 2018].
  3. «Gradient Descent in a Nutshell – Towards Data Science». Towards Data Science, 07-03-2018. Arxivat de l'original el 2019-05-01 [Consulta: 14 novembre 2018]. Arxivat 2019-05-01 a Wayback Machine.