Вернуться   SEO форум - оптимизация и продвижение сайтов > Поисковые системы > Google

Важная информация
Google - Поисковая система Google. Продвижение и раскрутка, оптимизация сайта, поисковое продвижение сайтов под Гугл, PR (Page Rank).

Ответ
выдача ТОП 6Полезны

 
Опции темы Оценить тему Опции просмотра
Старый 25.04.2013, 14:06   #16
 
Аватар для web-lab
 
Сообщений: 158
FR (активность): 13,986

Доп. информация
По умолчанию

Всего страниц в Google 9,650 (0.296 сек)
В основной выдаче Google 131 (0.692 сек)

это не нормально ?
web-lab вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 20.05.2013, 16:10   #17
 
Аватар для vangelis
 
Сообщений: 1
FR (активность): 5

Доп. информация
По умолчанию

Нет. Судя по всему у вас контент не уникальный.
vangelis вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 17.09.2013, 14:59   #18
 
Аватар для webmas
 
Сообщений: 484
FR (активность): 16,866

Доп. информация
По умолчанию

Цитата:
Сообщение от Alex LM Посмотреть сообщение
3. Количество страниц в дополнительном индексе Google. "Сопли" Гугла.
site:site.ru -site:site.ru/&
Не работает. Есть ли другой способ увидеть список урлов страниц попавших в сопли?

Есть два списка урлов: страницы проиндексированные гуглом и страницы попавшие в основной индекс. Можно как нибудь с помощью NP++ или Exell удалить не просто дубли, а задать условие: если строка (ячейка) повторяется, то удалить дубль и оригинал?
webmas вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 17.09.2013, 15:02   #19
 
Аватар для Phoenix
 
Сообщений: 1,005
FR (активность): 35,050

Доп. информация
По умолчанию

webmas, копируешь оба списка в эксель, потом нажимаешь "Удалить дубликаты" и в итоге получишь страницы, которых нет в основном индексе
хотя нет, я попутал один экземпляр все равно останется


В сео денег нет, совсем нет
Phoenix вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 17.09.2013, 21:18   #20
 
Аватар для webmas
 
Сообщений: 484
FR (активность): 16,866

Доп. информация
По умолчанию

Цитата:
Сообщение от Phoenix Посмотреть сообщение
хотя нет, я попутал один экземпляр все равно останется
именно. Если бы всё было так просто)

И еще один вопрос. Почему, когда я ввожу в гугле site:site.ru он мне показывает одно число, а когда начинаю проверять и перехожу на последнюю страницу поиска, по факту их оказывается значительно меньше? В моем случае 587 и 344 страницы соответсвенно.
webmas вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 19.09.2013, 20:53   #21
 
Аватар для webmas
 
Сообщений: 484
FR (активность): 16,866

Доп. информация
По умолчанию

Цитата:
Сообщение от webmas Посмотреть сообщение
Есть два списка урлов: страницы проиндексированные гуглом и страницы попавшие в основной индекс. Можно как нибудь с помощью NP++ или Exell удалить не просто дубли, а задать условие: если строка (ячейка) повторяется, то удалить дубль и оригинал?
Решается задача достаточно просто с помощью exell 2007.
  1. Выделяем столбец с данными
  2. главная - стили - условное форматирование - правила выделения ячеек - повторяющиеся значения. Выбираем условия, например выделить только те, которые не повторяются - уникальные. Выделить те, что с повторами - повторяющиеся.
Только вот списки урлов пришлось добывать в ручную. Неужели нету более простого способа посмотреть список страниц попавших в сопли? Может ZennoPoster 5 с этой задачей справиться?
webmas вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 22.09.2013, 22:06   #22
 
Аватар для luserz
 
Сообщений: 561
FR (активность): 12,142

Доп. информация
По умолчанию

Оффтоп:
Цитата:
Сообщение от Alex LM Посмотреть сообщение
3. Количество страниц в дополнительном индексе Google. "Сопли" Гугла.
site:site.ru -site:site.ru/&
Этот метод у меня не работает! Что делать? Есть ли сервис или другой метод который покажет не процент, а точно, те страницы которые в соплях?


ЛУЧШАЯ тизерная сеть для женского трафика
luserz вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 22.09.2013, 22:11   #23
 
Аватар для knockie
 
Сообщений: 984
FR (активность): 30,313

Доп. информация
По умолчанию

Оффтоп:
luserz,зачем задавать вопрос, который задали тремя постами выше, а под ним и обсуждение есть?
knockie вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 22.09.2013, 22:35   #24
 
Аватар для luserz
 
Сообщений: 561
FR (активность): 12,142

Доп. информация
По умолчанию

Оффтоп:
knockie,за тем, что это не работает и я хотел поднять тему повыше т.к очень нужно это узнать. В google вообще нет ответов...у всех как по шаблону...одно и тоже. Сори, если это считается флудом...я поправил и добавил в оффтоп. Просто сейчас у моего старого сайта это камень преткновения. Выявить сопливых и убрать, либо загнать в основной индекс.


ЛУЧШАЯ тизерная сеть для женского трафика
luserz вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 22.09.2013, 22:56   #25
 
Аватар для knockie
 
Сообщений: 984
FR (активность): 30,313

Доп. информация
По умолчанию

http://rghost.ru/48915141

В первый текстовый файл помещаете все урлы, во второй — урлы, которые есть в основном индексе (/&). Софт создаст новый текстовый файл, в котором останутся только те урлы, которых нет во втором (т.е. останутся сопли).
YxTu: сообщение полезно
knockie вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
"Спасибо" от:
luserz (23.09.2013)
Старый 22.09.2013, 23:43   #26
 
Аватар для luserz
 
Сообщений: 561
FR (активность): 12,142

Доп. информация
По умолчанию

Цитата:
Сообщение от knockie Посмотреть сообщение
В первый текстовый файл помещаете все урлы, во второй — урлы, которые есть в основном индексе (/&).
А есть ли парсер какой-нибудь, который экспортирует в excel и то и другое? А то ручками 1130 страниц как-то не в кайф по одному запихивать)


ЛУЧШАЯ тизерная сеть для женского трафика
luserz вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 23.09.2013, 09:20   #27
 
Аватар для webmas
 
Сообщений: 484
FR (активность): 16,866

Доп. информация
По умолчанию

Цитата:
Сообщение от knockie Посмотреть сообщение
http://rghost.ru/48915141

В первый текстовый файл помещаете все урлы, во второй — урлы, которые есть в основном индексе (/&). Софт создаст новый текстовый файл, в котором останутся только те урлы, которых нет во втором (т.е. останутся сопли).
то же самое делается с помощью exell
Цитата:
Сообщение от webmas Посмотреть сообщение
Решается задача достаточно просто с помощью exell 2007.

Выделяем столбец с данными
главная - стили - условное форматирование - правила выделения ячеек - повторяющиеся значения. Выбираем условия, например выделить только те, которые не повторяются - уникальные. Выделить те, что с повторами - повторяющиеся.
А вот как добывать эти урлы - другой вопрос. По идее можно написать шаблон для Zenoposter, но я ещё не пробовал.
Возможно есть более простой способ?
webmas вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 23.09.2013, 09:25   #28
 
Аватар для СТЕПАН
 
Сообщений: 1,639
FR (активность): 98,707

Доп. информация
По умолчанию

Цитата:
Сообщение от luserz Посмотреть сообщение
А то ручками 1130 страниц как-то не в кайф по одному запихивать
luserz, все урлы сайта можно собрать из сайтмап с помощью CD

Скрытый (как скрывать?) текст. Только для группы: "Почетный пользователь":
Ваша группа не позволяет просмотреть скрытую информацию.
luserz: сообщение полезно
СТЕПАН вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
"Спасибо" от:
YxTu (29.10.2013)
Старый 23.09.2013, 10:35   #29
 
Аватар для knockie
 
Сообщений: 984
FR (активность): 30,313

Доп. информация
По умолчанию

СТЕПАН, все равно нужен какой-то парсер, чтобы добыть урлы страниц из основного индекса.
knockie вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Старый 23.09.2013, 10:42   #30
 
Аватар для СТЕПАН
 
Сообщений: 1,639
FR (активность): 98,707

Доп. информация
По умолчанию

Цитата:
Сообщение от knockie Посмотреть сообщение
чтобы добыть урлы страниц из основного индекса
это не проблема

забиваем ссылку в поиск и смотрим есть ли она в выдаче если есть берем в список если нет записываем в другой список

Тут даже демо версяи зеннопостера справится
СТЕПАН вне форума  
Ответить с цитированием Сказать Плохо за это бесполезное сообщение Быстрый ответ на это сообщение
Ответ

Метки
гугл, основной индекс google, сопли гугла

Быстрый ответ
Ваше имя пользователя: Регистрация. Для входа нажмите здесь
Случайный вопрос

Сообщение:
Опции


Опции темы
Опции просмотра Оценка этой теме
Оценка этой теме:

Ваши права в разделе
Вы не можете создавать новые темы
Вы можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
google выкинул из основной выдачи почти все страницы tilperion Google 4 02.04.2012 21:00
Влияние поддомена на основной сайт kpripper Раскрутка в общих чертах 1 17.11.2011 19:53
Сопли гугла. wnt Google 2 21.02.2011 17:42
Индекс Google Alexan Google 2 08.03.2010 17:16
сателлит и основной сайт - как не попасться? mumitroll Раскрутка в общих чертах 5 30.10.2009 17:45

Текущее время: 06:27. Часовой пояс GMT +3.