Lekce 7 - Neuronové sítě – Sigmoid a Gradient descent
V minulé lekci, Neuronové sítě - Příprava na logistickou regresi, jsme si prošli prerekvizity pro logistickou regresi a seznámili jsme se s pravděpodobností neuronových sítí.
V dnešní lekci tutoriálu Neuronové sítě - Pokročilé budeme pokračovat v naší přípravě na logistickou regresi. Probereme si funkci sigmoid a algoritmus Gradient descent.
Sigmoid
Pro funkci sigmoid máme rovnici:
To bude aktivační funkce, stejně jako byla
sign
funkce (viz předchozí
kapitoly). Pamatujme si, že pokud chceme do funkce zahrnout vstupní
proměnné a váhy, musíme nejprve použít vážený součin vstupů a teprve
poté sigmoid funkci. Vzorec je:
...konec náhledu článku...
Pokračuj dál
Došel jsi až sem a to je super! Věříme, že ti první lekce ukázaly něco nového a užitečného.
Chceš v kurzu pokračovat? Přejdi do prémiové sekce.
Koupit tento kurz
Před koupí tohoto článku je třeba koupit předchozí díl
Obsah článku spadá pod licenci Premium, koupí článku souhlasíš se smluvními podmínkami.
- Neomezený a trvalý přístup k jednotlivým lekcím.
- Kvalitní znalosti v oblasti IT.
- Dovednosti, které ti pomohou získat vysněnou a dobře placenou práci.
Popis článku
Požadovaný článek má následující obsah:
Než v tutoriálu Pythonu pro pokročilé přijde na řadu logistická regrese, probereme si nejprve funkci sigmoid a Gradient descent.
Kredity získáš, když podpoříš naši síť. To můžeš udělat buď zasláním symbolické částky na podporu provozu nebo přidáním obsahu na síť.