Lekce 4 - Zjednodušená gradientní metoda optimalizace lineární regrese
V předchozím kvízu, Kvíz - Základy neuronových sítí v Pythonu, jsme si ověřili nabyté zkušenosti z předchozích lekcí.
Dnes se podíváme, jak tuto regresi provést tzv. gradientní metodou, což se nám bude v budoucnu hodit. Vše si samozřejmě napíšeme prakticky v Pythonu.
Gradientní metoda optimalizace
Tato metoda vyžaduje nějakou funkci, která bude měřit,
jak špatně nebo dobře si v naší aproximaci vedeme. Takové funkci se
říká "cost function" nebo "loss function".
Funkce nám vrací takzvaný loss, což je právě hodnota
indikující, jak dobře si vedeme. Pokud by bylo číslo 0,
znamenalo by to, že funkce pro lineární regresi je dokonalá.
Když zaneseme cost funkci do grafu, kde na ose
X bude odhadnutá hodnota a na ose Y chyba, může
graf vypadat např. takto:

Když se podíváme na graf, u gradientní metody se snažíme
...konec náhledu článku...
Pokračuj dál
Došel jsi až sem a to je super! Věříme, že ti první lekce ukázaly něco nového a užitečného.
Chceš v kurzu pokračovat? Přejdi do prémiové sekce.
Koupit tento kurz
Obsah článku spadá pod licenci Premium, koupí článku souhlasíš se smluvními podmínkami.
- Neomezený a trvalý přístup k jednotlivým lekcím.
- Kvalitní znalosti v oblasti IT.
- Dovednosti, které ti pomohou získat vysněnou a dobře placenou práci.
Popis článku
Požadovaný článek má následující obsah:
V Python tutoriálu si přiblížíme gradientní metodu optimalizace a pomocí zjednodušeného řešení optimalizujeme linearní regresi.
Kredity získáš, když podpoříš naši síť. To můžeš udělat buď zasláním symbolické částky na podporu provozu nebo přidáním obsahu na síť.