NOVINKA - Online rekvalifikační kurz Python programátor. Oblíbená a studenty ověřená rekvalifikace - nyní i online.
Hledáme nové posily do ITnetwork týmu. Podívej se na volné pozice a přidej se do nejagilnější firmy na trhu - Více informací.

Lekce 10 - Neuronové sítě - Gradientní sestup a jeho sourozenci

V minulé lekci, Neuronové sítě - Učení logistické regrese, jsme si vyzkoušeli logistickou regresi v praxi a dozvěděli se o batch gradient descent algoritmu.

V této lekci tutoriálu Neuronové sítě - Pokročilé probereme rozdíly mezi batch, minibatch a stochastic gradient descent algoritmem.

Výhody a nevýhody

Batch gradient descent (dále jen Gradient Descent) a Stochastick Gradient Descent jsme si už ukázali. Nyní si probereme rozdíly mezi nimi a jejich výhody a nevýhody:

  • Gradient Descent je stabilnější a v některých případech může vést k rychlejší konvergenci.
  • Gradient Descent je obvykle efektivnější, protože operace mohou být vektorizovány (provádění stejné operace nad více daty najednou), a proto může být algoritmus rychlejší.
  • Protože aktualizace následuje po predikci, lze algoritmus do určité úrovně paralelizovat.
  • Gradient Descent se může snáze zaseknout v lokálním optimu.

 

...konec náhledu článku...
Pokračuj dál

Znalosti v hodnotě stovek tisíc získáš za pár korun

Došel jsi až sem a to je super! Věříme, že ti první lekce ukázaly něco nového a užitečného.
Chceš v kurzu pokračovat? Přejdi do prémiové sekce.

Koupit tento kurz

Koupit všechny aktuálně dostupné lekce s funkcí odevzdávání úloh za pouhých 475 Kč
Aktuální stav konta 0 Kč
Koupí tohoto balíčku získáš přístup ke všem 22 článkům (22 lekcí) tohoto kurzu.

Před koupí tohoto článku je třeba koupit předchozí díl

Obsah článku spadá pod licenci Premium, koupí článku souhlasíš se smluvními podmínkami.

Co od nás v dalších lekcích dostaneš?
  • Neomezený a trvalý přístup k jednotlivým lekcím.
  • Kvalitní znalosti v oblasti IT.
  • Dovednosti, které ti pomohou získat vysněnou a dobře placenou práci.

Popis článku

Požadovaný článek má následující obsah:

V tomto tutoriálu Pythonu pro pokročilé probereme rozdíly mezi batch, minibatch a stochastic gradient descent algoritmy.

Kredity získáš, když podpoříš naši síť. To můžeš udělat buď zasláním symbolické částky na podporu provozu nebo přidáním obsahu na síť.

Článek pro vás napsal Patrik Valkovič
Avatar
Věnuji se programování v C++ a C#. Kromě toho také programuji v PHP (Nette) a JavaScriptu (NodeJS).
Aktivity