Akár bezárul az indexelési kategóriákból

+ Az archívumok indexelése lehetővé teszi a keresőmotorok számára, hogy gyorsan megtalálják az alaplaptól elrejtett oldalakat
+ Az indexelés lehetővé teszi az archívumok számára, hogy áthelyezzék a súlyt a végső oldalra a belső összeköttetés miatt
- Az archívumok többszörös tartalmúak, és elmosódnak a főoldal súlyától
- a kibocsátás helyett a főoldal le tudja tölteni egy lecsupaszított lapot az archívumból, garantáltan a legvégén alszik, nem kap átmenetet

Nyilvánvaló, hogy senki sem tudja pontosan, hogy működik a keresőmotorok, így kölcsönösen kizáró érvek szólnak. Ráadásul a kérdés megválaszolása valószínűleg megváltozik a keresőmotorok algoritmusa megváltozásával (és persze vannak olyan helyzetek is, ahol a keresési oldalak számának maximalizálása szükséges). Így két kérdés a kiváló közösség számára:

1. Milyen megközelítést alkalmaz, figyelembe véve a legfrissebb változásokat a keresési algoritmusokban?
2. Ha Yandex indexek annyi oldalt, mint amennyi a fájlban sitemap.xls, ez azt jelenti, hogy ő elvileg nem érdekel a fájl, és megtiltja az indexelés (ha ments) számára szükséges robots.txt. Úgy tűnik, a Google nem szenved ettől.

Köszönjük előre a válaszokat.

2. Ha Yandex indexek annyi oldalt, mint amennyi a fájlban sitemap.xls, ez azt jelenti, hogy ő elvileg nem érdekel a fájl, és megtiltja az indexelés (ha ments) számára szükséges robots.txt. Úgy tűnik, a Google nem szenved ettől.


Ez Yandex számára nem más, mint egy ajánlás, mint a Google robots.txt. A megfelelő webhelytérképet automatikusan létre kell hoznia, és nem tartalmazhat hivatkozásokat a már indexelt oldalakra, ha nagy projektekről van szó, ha kicsi, akkor elvileg nincs szükség.

+ Az archívumok indexelése lehetővé teszi a keresőmotorok számára, hogy gyorsan megtalálják az alaplaptól elrejtett oldalakat

+ Az indexelés lehetővé teszi az archívumok számára, hogy áthelyezzék a súlyt a végső oldalra a belső összeköttetés miatt


Nagyon ellentmondásos. Ez a linkelés a legtöbb esetben nem hatékony.