Diskuze: ASP.NET Core 3.x | create dynamic sitemap.xml
V předchozím kvízu, Test znalostí C# .NET online, jsme si ověřili nabyté zkušenosti z kurzu.
Zobrazeno 5 zpráv z 5.
V předchozím kvízu, Test znalostí C# .NET online, jsme si ověřili nabyté zkušenosti z kurzu.
Něco takového? https://github.com/….Web.Sitemap
Hledej v google "asp sitemap generator git"
Pro seznam URL si napiš crawler webu
Ahoj, dik za odpoved....Tu prvu cast to je to co som vedel, hladal som tu
druhu cast(web crawler) to som nevedel ako sa vola...Takze ktomu: Ak to chapem
spravne tak to roby presne to co tie online generatory sitemaps, proste to
prehlada moj web(stiahne HTML) a všetky linki nanom => generuje file... Toto
chapem aj som nieco nasiel, ale to neni to co som myslel... Chcel som aby v
mojom programe defaultne bolo ze pri spusteni to prebehne kod webu a z toho
vygeneruje ten sitemap... Myslim nieco take ze ci niekde neexistuje v .NETe
vyziadanie si kolekcie vsetkych odkazov na webe, ktore sa generuju do cshtml,
alebo tak nieco... Myslim ze by to bolo menej casovo narocne aj na pamet a tak,
ale neviem vtomto nemam znalosti tak ked tak ma oprav... Sitemap co viem tak to
je zaklad, tka predpokladam ze v ASP by mala byt ktomu niaka podpora, napr pre
rozsiahle weby sa asi nepocita stim ze sa to roby rucne aj ked len z niakej kolekcie
ako v tom Web.Stiemp...To generovanie XML si napisem aj sam to davam, ale neviem
ako z kodu webu ziskat automatizovane tu kolekciu odkazov...Ak by si ma teda
este vedel nasmerovat ako vytvorit "taky crawler" a usetrit mi hladanie, alebo
ked mas stimto skusenost a povedat mi ako sa to riesi v reale napr pri eshopoch
tak by si mi dost pomohel....Predem diki za odpoved
Nemám s tím moc reálné zkušenosti, ale tvoje řešení nemá moc využití v praxi, minimálně ne u eshopů. Jde o to, že tobě vznikají třeba u eshopu, přes parametrickou filtraci další URL, které dopředu neznáš. Proto se posílá až na běžící web crawler, který všechny tyhle aktuální URL najde, pokud jsou někde prolinkované. Kdybys tohle řešil jen na úrovni kódu při produkci, tak ti pak utečou ty vygenerované filtrací eshopu. Do toho vstupuje další problém, ty nechceš mít v sitemapě všechny URL, chceš tam mít jen ty určené k indexaci. Proto crawluješ web až naživo s nastaveným .htaccesem, kde jasně zakážeš procházení pro určité adresáře (administrace, některé parametry filtrování které moc zatěžují crawlera a tak podobně). Možná to jde nějak udělat přímo v kódu, ale v praxi jsem se s tím nesetkal. Možná je tohle řešením? https://www.c-sharpcorner.com/…sp-net-core/ Otázka jak bude vypadat ta sitemapa na výstupu, jestli bude validní.
Ked to vysvetlis takto tak to ma logiku hladat to az na nasadenem webe, to ma nenapadlo...Ja myslel ze sa to v praxi roby niako tak cez ten kod...Vtem pripade vymyslat koleso asi nema vyznam a staci pri kazdem nasadeni pouzit ten online generator a sitempa.xml nahrat len cez FTP, popripade pri editacii db(novy produkt a pod) spravit to iste...Kazdopadne diky, pomohlo mi to
Zobrazeno 5 zpráv z 5.