Diskuze: Stažení všech stránek

Člen

Zobrazeno 12 zpráv z 12.
//= Settings::TRACKING_CODE_B ?> //= Settings::TRACKING_CODE ?>
Já používal (když jsem neměl internet doma) FDM (záložka HTML Spider)
Ale zajímavější by bylo si to naprogramovat
Algoritmus nebude tak složitý, tipuju, že z hlavní stránky sleduješ
všechny odkazy, odkazující interně, ty postupně ukládat a porovnávat
názvy stažených souborů s aktuálním (duplicita, minimálně stálé
přepisování..), je to vlastně něco jako malý Googlebot.
Snad si to nepředstavuju jak Hurvínek válku
Wget je kvalitní program. Ale psát vlastní algoritmus je mnohem zajímavější. Sám jsem něco takového dělal, a když jsem nezadal pouze interní adresy, stal se z toho pěkný crawler. Pár set tisíc zápisů do databáze...
Složité to není, ale proč vynalézat kolo? Wget navíc hezky opraví URL mezi soubory, takže se v tom pak dá lokálně browsovat.
Souhlasím, pouze je to typ na algoritmus. Já si docela rád dělám věci po svém. To je stejné jako když se někdo učí jak seřadit pole. Samozřejmě, že to jde za pomoci jednoho příkazu. Ale někdo ten algoritmus musí vymyslet. Kdyby programátoři algoritmy přestávali vymýšlet od spoda, za 1. by se nikam nemuseli dostat, 2. by tím mohli utratit plno času běhu programu. Nemohu poté algoritmus moc optimalizovat... (Nemluvím o odborných algoritmech pro specifické účely.)
Na některých algoritmech už není dohromady co optimalizovat. Proč bych měl programovat vlastní sort, hledání řádku v souboru, nahrazování textu v souboru jiným textem apod, když mi to poskytuje přímo operační systém v daleko kvalitnější podobě?
Jednoduchá odpověď. Procvičit se pro nové algoritmy.
Zobrazeno 12 zpráv z 12.