Lekce 10 - Neuronové sítě - Gradientní sestup a jeho sourozenci
V minulé lekci, Neuronové sítě - Učení logistické regrese, jsme si vyzkoušeli logistickou regresi v praxi a dozvěděli se o batch gradient descent algoritmu.
V této lekci tutoriálu Neuronové sítě - Pokročilé probereme rozdíly mezi batch, minibatch a stochastic gradient descent algoritmem.
Výhody a nevýhody
Batch gradient descent (dále jen Gradient Descent) a Stochastick Gradient Descent jsme si už ukázali. Nyní si probereme rozdíly mezi nimi a jejich výhody a nevýhody:
- Gradient Descent je stabilnější a v některých případech může vést k rychlejší konvergenci.
- Gradient Descent je obvykle efektivnější, protože operace mohou být vektorizovány (provádění stejné operace nad více daty najednou), a proto může být algoritmus rychlejší.
- Protože aktualizace následuje po predikci, lze algoritmus do určité úrovně paralelizovat.
- Gradient Descent se může snáze zaseknout v lokálním optimu.
...konec náhledu článku...
Pokračuj dál
Došel jsi až sem a to je super! Věříme, že ti první lekce ukázaly něco nového a užitečného.
Chceš v kurzu pokračovat? Přejdi do prémiové sekce.
Koupit tento kurz
Před koupí tohoto článku je třeba koupit předchozí díl
Obsah článku spadá pod licenci Premium, koupí článku souhlasíš se smluvními podmínkami.
- Neomezený a trvalý přístup k jednotlivým lekcím.
- Kvalitní znalosti v oblasti IT.
- Dovednosti, které ti pomohou získat vysněnou a dobře placenou práci.
Popis článku
Požadovaný článek má následující obsah:
V tomto tutoriálu Pythonu pro pokročilé probereme rozdíly mezi batch, minibatch a stochastic gradient descent algoritmy.
Kredity získáš, když podpoříš naši síť. To můžeš udělat buď zasláním symbolické částky na podporu provozu nebo přidáním obsahu na síť.