Hvorfor stokastisk gradientnedstigning?

Innholdsfortegnelse:

Hvorfor stokastisk gradientnedstigning?
Hvorfor stokastisk gradientnedstigning?

Video: Hvorfor stokastisk gradientnedstigning?

Video: Hvorfor stokastisk gradientnedstigning?
Video: Varians, hvorfor vi kvadrerer | Statistikk - Diskret stokastisk variabel 2024, November
Anonim

Ifølge en senior dataforsker er en av de klare fordelene med å bruke Stokastisk Gradient Descent at det gjør beregningene raskere enn gradientnedstigning og batchgradientnedstigning … Også på massive datasett, stokastisk gradientnedstigning kan konvergere raskere fordi den utfører oppdateringer oftere.

Hva brukes Stokastisk Gradient Descent til?

Stokastisk gradientnedstigning er en optimaliseringsalgoritme som ofte brukes i maskinlæringsapplikasjoner for å finne modellparametrene som samsvarer med den beste tilpasningen mellom anslått og faktisk utgang Det er en unøyaktig, men kraftig teknikk. Stokastisk gradientnedstigning er mye brukt i maskinlæringsapplikasjoner.

Hvorfor må vi bruke Stokastisk Gradient Descent i stedet for standard gradientnedstigning for å trene et konvolusjonelt nevr alt nettverk?

Stokastisk gradientnedstigning oppdaterer parameterne for hver observasjon som fører til flere oppdateringer. Så det er en raskere tilnærming som hjelper til med raskere beslutningstaking. Raskere oppdateringer i forskjellige retninger kan sees i denne animasjonen.

Hvorfor foretrekker vi gradientnedstigning?

Hovedgrunnen til at gradientnedstigning brukes til lineær regresjon er beregningskompleksiteten: det er beregningsmessig billigere (raskere) å finne løsningen ved å bruke gradientnedstigningen i noen tilfeller. Her må du beregne matrisen X′X og deretter invertere den (se merknad nedenfor). Det er et dyrt regnestykke.

Hvorfor brukes SGD?

Stokastisk gradientnedstigning (ofte forkortet SGD) er en iterativ metode for å optimalisere en objektiv funksjon med passende glatthetsegenskaper (f.eks. differensierbar eller subdifferensierbar).

Anbefalt: