![]() |
ошибка в sitemap
|
Цитата:
Цитата:
|
Habetdin, можете привести пример правильного сайтмэпа? Или как мне вот моя страниц. мойсайт.ru/моя статья
Как мне из него xml сделать. |
Вот стандартный sitemap самописного сайта, можете посмотреть синтаксис, валидацию проходит: http://www.bestcatalog.hut4.ru/sitemap.xml html тегов в нем быть не должно.
|
Master-It, а так сойдет для каждой статьи?
http://мойсайт.ru/index.php/stati/anynews1 <urlset><url><loc>http://мойсайт.ru/index.php/stati/anynews1</loc><lastmod>2013-01-22T15:04:07+00:00</lastmod><changefreq>always</changefreq></url> И что я должен писать в ластмод? Или есть способ , может прога. чтобы она сама такой xml файл создала |
Цитата:
Цитата:
|
Цитата:
После создания карты ее необходимо проверить в валидаторе, вот рекомендации от Яндекс для вебмастеров http://webmaster.ya.ru/14066 |
Habetdin,
а что то не понимаю как прогой пользоваться GSiteCrawler я ввел туда свой сайт. Сорри, пока он сырой, я его скрываю. на что дальше нажать, чтобы он выдал xmlку и надо ли каждый url сайта вводить или он автоматически сам весь сайт произучает? |
vanoman, после добавления сайта в проект делаете обход сайта (кнопка (Re)Crawl), затем в меню кнопки Generate выбираете Sitemap:
![]() P.S.: перед генерацией можно убрать ненужные адреса на вкладке "URL list", при желании - сгенерировать на их основе новый robots.txt, в меню кнопки Generate соответствующий пункт есть. |
а зачем нужен кстати робот .тхт Его роль, чтобы моя страница по запросам отображалась в яндексе поскорее есть?
И смеженный вопросик, смотрел видео от какого -то сеошника, он скахзал, что плюс будет, если сделать красную стрелку в фавор. Но я так и не понял как должна выглядеть это красная стрелка. |
Цитата:
Цитата:
|
Если коротко о главном, то robots.txt нужен для того, чтобы в индекс ПС, не попадало то, что не нужно.
Например, каждый комментарий на WordPress имеет свою ссылку, и если в робот.тхт не написать условие: Disallow: /*?* то в индексе может появиться n-ное количество ненужных страниц, вида windows.html?replytocom=1, windows.html?replytocom=2, windows.html?replytocom=2023, что чревато дублирование контента и последующими санкциями со стороны ПС. В помощи для вебмастеров Яндекс написано: запретите в robots.txt индексирование страниц, неинтересных пользователям. Например, формы ответа на форуме, статистику посещений, страницы с результатами поиска... З.Ы. Про красную стрелочку слышу впервые. :wow: |
про фавор тут смотрел.
http://www.youtube.com/watch?v=MfsN2u3f9wY ровно вторая минута 2:00 фавор это фав.икон |
Посмотрел видос, улыбнуло. Автор это сказал немного в утрированной форме, главное требование от Яндекса - это уникальность и полезность материалов, которые представлены на сайте.
К картинкам (фавикону) это тоже относиться, поэтому их лучше не копировать в интернете а создавать самостоятельно (сделать скриншон, или обратить горизонтально в фотошопе, наложить пару масок) а потом проверить уникальность своей картинки в сервисе http://www.tineye.com/. Тоже самое касается и фавикона, т. е. он должен быть уникальным, можно и со стрелочкой, это будет привлекать внимание пользователей. Ведь паук он прочитал изображение, (текст страницы), сравнил со своей базой, если такого нет, то отлично, а если есть значит очередной копипаст, включаются другие алгоритмы, а стрелочка там или что еще, ему вообще до фени. (Это чисто мое предположение работы алгоритмов поисковых ботов, а как на самом деле знают только разработчики Яндекса) |
Время: 20:25. |
Время: 20:25.
© OSzone.net 2001-