Lekce 20 - Neuronové sítě – Dense vrstva a optimalizátory
V minulé lekci, Neuronové sítě – Softmax a refaktoring, jsme se seznámili s funkcí Softmax a provedli další refaktoring.
V této lekci tutoriálu Neuronové sítě - Pokročilé se zaměříme na dense vrstvu a optimizéry.
Dense vrstva
Nadešel čas, abychom se věnovali naší poslední vrstvě. Připomeňme si, že logistická regrese měla vektor vah w, který byl vynásoben vektorem x obsahujícím atributy jednoho příkladu (nebo maticí v případě batch příkladů). Pro přístup one-vs-rest jsme měli několik logistických regresí. Když jsme pak zpracovávali příklady z datové sady, museli jsme je předat každému neuronu. Jak se ukázalo, můžeme spojit váhy všech neuronů dohromady do matice vah: ?. Kromě toho můžeme přidat bias explicitně a zbavit se dodatečné 1, kterou jsme doplňovali ke každému příkladu. V důsledku toho můžeme celou logistickou regresi pro více tříd vyjádřit následujícím vzorcem:
CrossEntropy(softmax(??+?))
Vrstva, která je zodpovědná za lineární kombinaci (??+?), se nazývá dense vrstva, nebo také fully-connected vrstva. Právě na ni se nyní zaměříme. Zbývající prvky vrstvy jako softmax a cross entropy již máme z minulých lekcí.
...konec náhledu článku...
Pokračuj dál
Došel jsi až sem a to je super! Věříme, že ti první lekce ukázaly něco nového a užitečného.
Chceš v kurzu pokračovat? Přejdi do prémiové sekce.
Koupit tento kurz
Před koupí tohoto článku je třeba koupit předchozí díl
Obsah článku spadá pod licenci Premium, koupí článku souhlasíš se smluvními podmínkami.
- Neomezený a trvalý přístup k jednotlivým lekcím.
- Kvalitní znalosti v oblasti IT.
- Dovednosti, které ti pomohou získat vysněnou a dobře placenou práci.
Popis článku
Požadovaný článek má následující obsah:
V tomto tutoriálu Pythonu pro pokročilé probereme dense vrstvu a optimizéry. Tyto znalosti budeme potřebovat pro naši první neuronovou síť.
Kredity získáš, když podpoříš naši síť. To můžeš udělat buď zasláním symbolické částky na podporu provozu nebo přidáním obsahu na síť.