Вернуться   SEO форум - оптимизация и продвижение сайтов > Поисковая оптимизация > Индексация сайта

Важная информация
Индексация сайта - Robots.txt, sitemap (карта сайта), редирект, .htaccess, и т.д. Бан, поисковые фильтры, ранжирование (позиции).

Ответ
 
Опции темы Оценить тему Опции просмотра
Старый 26.07.2011, 10:54   #1
 
Аватар для Tongue
 
Сообщений: 23
FR (активность): 889

Доп. информация
По умолчанию Автор темы Страницы-двойники

Есть пары страниц, у которых одинаковый контент, но разные ссылки. Знаю, что Гугл этого не любит. Подскажите, пожалуйста, лучший по Вашему мнению вариант выхода из ситуации.
Tongue вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 26.07.2011, 11:12   #2
 
Аватар для IgorZaz
 
Сообщений: 597
FR (активность): 14,158

Доп. информация
По умолчанию Re: Страницы-вдойники

Поменять самому контент на одной из страниц или гугл одну из страниц забанит/опустит (и не только гугл этого не любит), какие тут еще могут быть мнения?
Оффтоп:
Страницы-ВДойники это звучит


Google - для слабаков! Настоящие мужики спрашивают у ясеня!
IgorZaz вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
"Спасибо" от:
Tongue (26.07.2011)
Старый 26.07.2011, 12:24   #3
 
Аватар для Tongue
 
Сообщений: 23
FR (активность): 889

Доп. информация
По умолчанию Автор темы Re: Страницы-вдойники

Слышал, можно сделать редирект 301 или даже исключить в robots.txt. Не знаю что будет выгоднее
Tongue вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 26.07.2011, 12:28   #4
 
Аватар для Umka
 
Сообщений: 4,143
FR (активность): 80,659

Доп. информация
По умолчанию Re: Страницы-вдойники

Цитата:
Сообщение от Tongue Посмотреть сообщение
редирект 301 или даже исключить в robots.txt.
Tongue, зачем? Зачем вообще на сайте две одинаковые страницы то?
Umka вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
"Спасибо" от:
Tongue (26.07.2011)
Старый 26.07.2011, 12:48   #5
 
Аватар для Tongue
 
Сообщений: 23
FR (активность): 889

Доп. информация
По умолчанию Автор темы Re: Страницы-вдойники

Цитата:
Сообщение от umka from ufa Посмотреть сообщение
Зачем вообще на сайте две одинаковые страницы то?
Как-то получилось, что один и тот же контент генерится по двум разным ссылкам. Кстати, включая главную. Исправить это пока нет возможности, поэтому ищу другие пути для избегания ситуации дублирования.
Кстати, для этого должен хорошо подходить обновленный буквально на днях инструмент "Параметры URL" в Гугл вебмастерс. Есть такие, кто уже испытал его?
Tongue вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 26.07.2011, 13:22   #6
 
Аватар для IgorZaz
 
Сообщений: 597
FR (активность): 14,158

Доп. информация
По умолчанию Re: Страницы-вдойники

Главную предлагаю оставить!
Другую запретить в роботс - правильно. И поудалять из поиска и кеша.
С параметрами не связывался пока, но это же только у гугла они есть, а тут еще рядом нервно дышит Яндекс. Так что по старинке тоже придется делать .


Google - для слабаков! Настоящие мужики спрашивают у ясеня!
IgorZaz вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 26.07.2011, 13:48   #7
 
Аватар для llans
 
Сообщений: 27
FR (активность): 603

Доп. информация
По умолчанию Re: Страницы-вдойники

У меня на друпале была такая ситуация. При задании имени появлялся алиас, например http://led-displays.ru/string и http://led-displays.ru/node/6
Я в robots.txt запретил все node кроме нужных:
Allow: /node/98/*
Disallow: /node/*
И Яндекс за две недели все node почикал!
llans вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 26.07.2011, 15:19   #8
 
Аватар для Umka
 
Сообщений: 4,143
FR (активность): 80,659

Доп. информация
По умолчанию Re: Страницы-вдойники

Цитата:
Сообщение от llans Посмотреть сообщение
И Яндекс за две недели все node почикал!
можно быстрее - как только появляется запрет в роботс, сразу внести страницу на удаление.
http://webmaster.yandex.ru/delurl.xml
Umka вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Ответ

Быстрый ответ
Ваше имя пользователя: Регистрация. Для входа нажмите здесь
Случайный вопрос

Сообщение:
Опции
Внимание!
Этой теме более 2331 дней. Вы можете оставить сообщение здесь. Но, обращаем внимание. Возможно, рациональней создать новую тему (найти свежее обсуждение)?


Опции темы
Опции просмотра Оценка этой теме
Оценка этой теме:

Ваши права в разделе
Вы не можете создавать новые темы
Вы можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Код страницы botcman Раскрутка в общих чертах 13 23.06.2011 15:08
где мои страницы ? 4Fun.Fantasy О работе SEO Cafe 7 30.09.2010 19:15
В индексе 2 гл. страницы IveGotSoul Индексация сайта 5 05.06.2010 12:15
Релевантные страницы Альпром Раскрутка в общих чертах 6 09.12.2009 12:04
Как увеличить PR страницы? mike Google 12 19.05.2008 02:01

Текущее время: 07:33. Часовой пояс GMT +3.