Lekce 10 - Neuronové sítě - Gradientní sestup a jeho sourozenci
V minulé lekci, Neuronové sítě - Učení logistické regrese, jsme si vyzkoušeli logistickou regresi v praxi a dozvěděli se o batch gradient descent algoritmu.
V této lekci tutoriálu Neuronové sítě - Pokročilé probereme rozdíly mezi batch, minibatch a stochastic gradient descent algoritmem.
Výhody a nevýhody
Batch gradient descent (dále jen Gradient Descent) a Stochastick Gradient Descent jsme si už ukázali. Nyní si probereme rozdíly mezi nimi a jejich výhody a nevýhody:
- Gradient Descent je stabilnější a v některých případech může vést k rychlejší konvergenci.
- Gradient Descent je obvykle efektivnější, protože operace mohou být vektorizovány (provádění stejné operace nad více daty najednou), a proto může být algoritmus rychlejší.
- Protože aktualizace následuje po predikci, lze algoritmus do určité úrovně paralelizovat.
- Gradient Descent se může snáze zaseknout v lokálním optimu.
...konec náhledu článku...
Pokračuj dál
Došel jsi až sem a to je super! Věříme, že ti první lekce ukázaly něco nového a užitečného.
Chceš v kurzu pokračovat? Přejdi do prémiové sekce.
Koupit pouze tento kurz
Získej okamžitý přístup ke kurzu bez
časového omezení.
475 Kč
Před koupí tohoto článku je třeba koupit předchozí díl
Obsah článku spadá pod licenci Premium, koupí článku souhlasíš se smluvními podmínkami.
- Přístup k jednotlivým lekcím dle způsobu pořízení.
- Kvalitní znalosti v oblasti IT.
- Dovednosti, které ti pomohou získat vysněnou a dobře placenou práci.
Popis článku
Požadovaný článek má následující obsah:
V tomto tutoriálu Pythonu pro pokročilé probereme rozdíly mezi batch, minibatch a stochastic gradient descent algoritmy.
Kredity získáš, když podpoříš naši síť. To můžeš udělat buď zasláním symbolické částky na podporu provozu nebo přidáním obsahu na síť.