Вернуться   SEO форум - оптимизация и продвижение сайтов > Поисковая оптимизация > Оптимизация страниц сайта

Важная информация
Оптимизация страниц сайта - Мета теги (description и т.д.), заголовок h1, title, alt. Микроразметка, структура контента, внутренняя перелинковка.

Ответ
 
Опции темы Оценить тему Опции просмотра
Старый 05.06.2012, 09:39   #1
 
Аватар для tylerDjack
 
Сообщений: 251
FR (активность): 4,925

Доп. информация
По умолчанию Автор темы Дубли контента и rel=canonical

Есть сайт, интернет-витрина. На каждой странице товара есть повторяющийся контент:



и вот такие вкладки (в которых технические хар-ки зачастую различающиеся лишь в некоторых циферках и картинки материалов отделки и комплектующих):



Извиняюсь, что замазано, не хочется лишний раз палить не свой сайт. Тем более можно итак понять что за сайт при должной проницательности

У повторяющихся почти полностью я ставлю rel="canonical". И вроде ок, но есть товары с каноникалом, которые все ведут на 1 страницу исходого товара и мне программка (SEO Power Suite) говорит, что я фейлю делая такие дубликаты тега, но я нигде не могу найти обоснования этого.

В общем, вопросы:
  1. Как лучше избавляться от частичных дублей на страницах без нарушения правил поисковиков и НЕ картинками. Желательно проверенная инфа и поподробнее пожалуйста, а не просто "javascript".
  2. Что делать с дублями тега rel=canonical? Или это всё фигня?
tylerDjack вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 09.06.2012, 14:25   #2
 
Аватар для PromoSoft
 
Сообщений: 7
FR (активность): 331

Доп. информация
По умолчанию

В Robots.txt прописываю вот так - Disallow: /пример_ссылки_дубля?ps0422ca2127
PromoSoft вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 12.06.2012, 09:15   #3
 
Аватар для tylerDjack
 
Сообщений: 251
FR (активность): 4,925

Доп. информация
По умолчанию Автор темы

Цитата:
Сообщение от PromoSoft Посмотреть сообщение
В Robots.txt прописываю вот так - Disallow: /пример_ссылки_дубля?ps0422ca2127
Это ок, но эти дубли не отдельные страница, а только часть страницы, которая одинакова для всех страниц каталога, поэтому запретить её по URL не представляется возможным.
tylerDjack вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 23.12.2012, 19:03   #4
 
Аватар для redday
 
Сообщений: 3
FR (активность): 15

Доп. информация
По умолчанию

tylerDjack, а нашли ли Вы ответ?
redday вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 23.12.2012, 21:52   #5
 
Аватар для tylerDjack
 
Сообщений: 251
FR (активность): 4,925

Доп. информация
По умолчанию Автор темы

Цитата:
Сообщение от redday Посмотреть сообщение
tylerDjack, а нашли ли Вы ответ?
<noindex></noindex> для яндекса
для гугла - выводить код элемента во внешний подгружаемый файл.


http://reclamare.info/ - Пишу потихонечку.
http://kozhura.ru/ - Сайты без целлюлита!
tylerDjack вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 26.12.2012, 00:11   #6
 
Аватар для redday
 
Сообщений: 3
FR (активность): 15

Доп. информация
По умолчанию

tylerDjack, спасибо!
redday вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 16.01.2013, 18:20   #7
 
Аватар для Garnet_Fox
 
Сообщений: 335
FR (активность): 6,576

Доп. информация
По умолчанию

Цитата:
Сообщение от tylerDjack Посмотреть сообщение
для гугла - выводить код элемента во внешний подгружаемый файл.
А скажите, я так понимаю это во внешнюю джаву выводить, с запретом индексации в robots.txt? Санкций не последует?
Garnet_Fox вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 16.01.2013, 19:14   #8
 
Аватар для tylerDjack
 
Сообщений: 251
FR (активность): 4,925

Доп. информация
По умолчанию Автор темы

Цитата:
Сообщение от Garnet_Fox Посмотреть сообщение
А скажите, я так понимаю это во внешнюю джаву выводить, с запретом индексации в robots.txt? Санкций не последует?
Честно говоря, не знаю, я это все делал через обращение к программисту)
В robots.txt не запрещал, санкций не получил ни разу.


http://reclamare.info/ - Пишу потихонечку.
http://kozhura.ru/ - Сайты без целлюлита!
tylerDjack вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
"Спасибо" от:
Garnet_Fox (16.01.2013)
Старый 16.01.2013, 19:27   #9
 
Аватар для Garnet_Fox
 
Сообщений: 335
FR (активность): 6,576

Доп. информация
По умолчанию

Программист штука хорошая, но мне в данном случае совершенно бесполезная, а можно пример страницы с выводом в лс кинуть, чтоб не палить, сам гляну, что ли )
Garnet_Fox вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 22.01.2013, 11:40   #10
 
Аватар для tylerDjack
 
Сообщений: 251
FR (активность): 4,925

Доп. информация
По умолчанию Автор темы

Цитата:
Сообщение от Garnet_Fox Посмотреть сообщение
Программист штука хорошая, но мне в данном случае совершенно бесполезная, а можно пример страницы с выводом в лс кинуть, чтоб не палить, сам гляну, что ли )
Сообщение, надеюсь, получил. Если еще не разобрался, вот описание метода нашел - http://seodiz.ru/hide-content.
Garnet_Fox: сообщение полезно


http://reclamare.info/ - Пишу потихонечку.
http://kozhura.ru/ - Сайты без целлюлита!
tylerDjack вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
"Спасибо" от:
Garnet_Fox (22.01.2013)
Старый 22.01.2013, 14:37   #11
 
Аватар для Garnet_Fox
 
Сообщений: 335
FR (активность): 6,576

Доп. информация
По умолчанию

Цитата:
Сообщение от tylerDjack Посмотреть сообщение
Сообщение, надеюсь, получил. Если еще не разобрался, вот описание метода нашел - http://seodiz.ru/hide-content.
Все в порядке, сообщение не получил, но закрытие уже сделал именно так, как по ссылке написано, для надежности еще в роботсе в noindex закинул.
Garnet_Fox вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Ответ

Метки
rel=canonical, дубли контента, сокрытие контента

Быстрый ответ
Ваше имя пользователя: Регистрация. Для входа нажмите здесь
Случайный вопрос

Сообщение:
Опции
Внимание!
Этой теме более 1949 дней. Вы можете оставить сообщение здесь. Но, обращаем внимание. Возможно, рациональней создать новую тему (найти свежее обсуждение)?


Опции темы
Опции просмотра Оценка этой теме
Оценка этой теме:

Ваши права в разделе
Вы не можете создавать новые темы
Вы можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Рекомендация от Гугл по поводу rel="canonical" Edu-profit Индексация сайта 2 10.04.2013 16:51
Дубли текста md5u Оптимизация страниц сайта 10 04.06.2012 13:53
Дубли страниц mayki Drupal 7 27.10.2011 09:59
Яндекс.Новости - Поддержка атрибута rel=”canonical” роботом Яндекса Grinkoff Яndex 0 23.05.2011 13:52
Вопрос про дубли visska Индексация сайта 6 29.08.2010 17:35

Текущее время: 02:15. Часовой пояс GMT +3.