|
|
Robots.txt и sitemap - чья задача? |
|
Продвижение сайта - Ключевые слова, ядро, анализ конкурентов, анкоры, цена, трафик по запросу, ссылочная структура... |
![]() |
|
Опции темы | Оценить тему | Опции просмотра |
![]() |
#1 |
|
![]() ![]() Работаю над одним проектом с новым разработчиком. Проект почти закончен, когда делала анализ, обнаружила, что нет файлов robots.txt и sitemap. Веб-мастер сказал, что он их никогда не делает. sitemap не проблема сгенерировать и обновлять, а вот robots.txt пока не совсем ясно, как корректно создать. В связи с чем вопрос: создание этих файлов - обычно задача сеошника или разраба?
|
![]() |
![]() ![]() ![]() |
![]() |
#2 |
|
![]() Создание - разраба.
Дать четкое ТЗ что должно быть в файлах и ссылки на документацию по их правильному оформлению - SEO'шника. ![]() Принимаю заказы на продвижение. Дорого. Rotgar.ru
|
![]() |
![]() ![]() ![]() |
"Спасибо" от: | aatssa_1991 (10.06.2018) |
![]() |
#3 |
|
![]() В файлах robots всегда какой-нибудь треш. Если у сеошника есть доступ к корневой папке сайта, то он без проблем создаст и настроить файл роботс. Лучше, конечно, чтобы сеошник составил содержание данного файла.
Вебмастер вам создаст, но навряд ли настроит корректно, все равно придется исправлять. У каждой CMS есть свои особенности. |
![]() |
![]() ![]() ![]() |
![]() |
#4 |
|
![]() у хорошего сеошника роботс пустой.
|
![]() |
![]() ![]() ![]() |
"Спасибо" от: | aatssa_1991 (10.06.2018) |
![]() |
#5 |
|
![]() |
![]() |
![]() ![]() ![]() |
![]() |
#6 |
|
![]() Ага. Пустой - отсутствует. Потому, что роботс - это почти всегда затычка, которую юзают чтобы избавиться от результата проблемы, не избавляясь от самой проблемы.
Очень мало юзкейсов когда роботс нужен. У меня почти у всех клиентов роботсы пусты. Таким образом, перед бизнесом выбор: либо убираем дохлого лося с переговорки, либо поливаем его духами, чтоб не так вонял и продолжаем его обходить. Хороший бизнес уберет лося. Хорошие сеошники работают с хорошими бизнесами, ибо плохие никогда не нанимают качественных спецов, всегда экономя на своем рои по глупости и решают оставлять лосей дохлых, так как их дорого убирать. Примерно так как-то. Кстати, примерно то же самое можно сказать о сайтмапе. Ну только у него немного чаще есть польза. Если роботс может быть полезен где-то в 1% случаев, то сайтмап - в 5%. |
![]() |
![]() ![]() ![]() |
![]() |
#7 |
|
![]() Т.е. ты хочешь сказать, что удаляем все страницы, которые закрываем от индексации и роботс становится ненужным. Я правильно понял?
|
![]() |
![]() ![]() ![]() |
![]() |
#8 |
|
![]() удаляем, убираем за авторизацию, сливаем с другими. Да что угодно.
|
![]() |
![]() ![]() ![]() |
![]() |
#9 |
|
![]() И вправду почти что угодно.
|
![]() |
![]() ![]() ![]() |
![]() |
#10 |
|
![]() Всем привет! Можете поверить, что майнить BTC быть может, просто смотря видео либо листая социальные сети? Но, это правда! Единственное, что вам нужно для этого — браузер CryptoTab. Я пользуюсь им уже давно и хочу поделиться с вами своей ссылкой https://cb.run/jrDW
@bit= ![]() https://revenuesandprofits.com/backup-your-facebook-account/
|
![]() |
![]() ![]() ![]() |
![]() |
Метки |
robots.txt, sitemap |
|
Опции темы | |
Опции просмотра | Оценка этой теме |
|
|
![]() |
||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
robots.txt - учимся использовать. Часто задаваемые вопросы по robots.txt | Alex LM | Общие вопросы | 18 | 10.05.2016 11:09 |
[ Вопрос ] Помогите с Robots.txt и sitemap.xml (Два сайта на одном хостинге) | ProdamText | Индексация сайта | 9 | 30.03.2015 19:51 |
Задача =) для Логики | Dr. Green | Беседка | 52 | 14.01.2014 12:38 |
Файл Sitemap содержит URL, доступ к которым заблокирован в файле robots.txt | AGmb | Раскрутка в общих чертах | 4 | 06.03.2013 13:46 |
задача по mod_rewrite | legaru | Индексация сайта | 2 | 01.07.2010 12:05 |
|
Текущее время: 23:12. Часовой пояс GMT +3.
|