Lekce 16 - Neuronové sítě - Dokončení křížové entropie
V minulé lekci, Neuronové sítě – Křížová entropie, jsme probrali ztrátovou funkci cross entropy a binary cross entropy.
V této lekci tutoriálu Neuronové sítě - Pokročilé rozšíříme naše znalosti křížové entropie - cross entropy. Podíváme se na variantu multi-class a na negative log-likelihood.
Proč je binary cross entropy lepší než MSE
V předchozí lekci nám grafy zobrazily něco velmi zajímavého. Přesnost
BCE se zvyšovala mnohem rychleji v porovnání s MSE loss funkcí, i když
model byl stejný. Proč tomu tak je? Tato skutečnost souvisí s
aktivační funkcí sigmoid a binary cross
entropy. Připomeňme si graf funkce sigmoid a její
derivaci:
def sig(x): return 1 / (1 + np.exp(-x)) x = np.arange(-6, 6, 0.1) plt.figure(figsize=(12,4)) plt.plot(x, sig(x), label="function") plt.plot(x, sig(x)*(1-sig(x)), label="derivative") plt.title("Sigmoid") plt.legend() plt.show()
Průběh funkce a její derivace v grafu:
...konec náhledu článku...
Pokračuj dál
Došel jsi až sem a to je super! Věříme, že ti první lekce ukázaly něco nového a užitečného.
Chceš v kurzu pokračovat? Přejdi do prémiové sekce.
Koupit pouze tento kurz
Získej okamžitý přístup ke kurzu bez
časového omezení.
475 Kč
Před koupí tohoto článku je třeba koupit předchozí díl
Obsah článku spadá pod licenci Premium, koupí článku souhlasíš se smluvními podmínkami.
- Přístup k jednotlivým lekcím dle způsobu pořízení.
- Kvalitní znalosti v oblasti IT.
- Dovednosti, které ti pomohou získat vysněnou a dobře placenou práci.
Popis článku
Požadovaný článek má následující obsah:
V tomto tutoriálu Pythonu pro pokročilé navážeme na křížovou entropii a podíváme se na variantu multi-class a na negative log-likelihood.
Kredity získáš, když podpoříš naši síť. To můžeš udělat buď zasláním symbolické částky na podporu provozu nebo přidáním obsahu na síť.