Lekce 4 - Zjednodušená gradientní metoda optimalizace lineární regrese
V předchozím kvízu, Kvíz - Základy neuronových sítí v Pythonu, jsme si ověřili nabyté zkušenosti z předchozích lekcí.
Dnes se podíváme, jak tuto regresi provést tzv. gradientní metodou, což se nám bude v budoucnu hodit. Vše si samozřejmě napíšeme prakticky v Pythonu.
Gradientní metoda optimalizace
Tato metoda vyžaduje nějakou funkci, která bude měřit,
jak špatně nebo dobře si v naší aproximaci vedeme. Takové funkci se
říká "cost function" nebo "loss function".
Funkce nám vrací takzvaný loss
, což je právě hodnota
indikující, jak dobře si vedeme. Pokud by bylo číslo 0
,
znamenalo by to, že funkce pro lineární regresi je dokonalá.
Když zaneseme cost funkci do grafu, kde na ose
X
bude odhadnutá hodnota a na ose Y
chyba, může
graf vypadat např. takto:
Když se podíváme na graf, u gradientní metody se snažíme
...konec náhledu článku...
Pokračuj dál
Došel jsi až sem a to je super! Věříme, že ti první lekce ukázaly něco nového a užitečného.
Chceš v kurzu pokračovat? Přejdi do prémiové sekce.
Koupit tento kurz
Obsah článku spadá pod licenci Premium, koupí článku souhlasíš se smluvními podmínkami.
- Neomezený a trvalý přístup k jednotlivým lekcím.
- Kvalitní znalosti v oblasti IT.
- Dovednosti, které ti pomohou získat vysněnou a dobře placenou práci.
Popis článku
Požadovaný článek má následující obsah:
V Python tutoriálu si přiblížíme gradientní metodu optimalizace a pomocí zjednodušeného řešení optimalizujeme linearní regresi.
Kredity získáš, když podpoříš naši síť. To můžeš udělat buď zasláním symbolické částky na podporu provozu nebo přidáním obsahu na síť.