• ДОБРО ПОЖАЛОВАТЬ В КЛУБ ПО WORDPRESS

    Мы активно растущий клуб по WordPress и нам нужна помощь каждого человека, в том числе и Ваша! Не стесняйтесь и станьте частью большого сообщества.
    Мы делимся новостями, отытом и полезными советами! Пройдите простую регистрацию, чтобы пользоваться всеми возможностями нашего клуба.

    Присоединяйтесь к нам, вам обязательно понравится - Присоединится

Блог Как убрать дубли из поиска Google и Яндекс

il brutto

ПРОВЕРЕННЫЙ

il brutto

ПРОВЕРЕННЫЙ
Сообщения
27
А если надпись предупреждает: " В настоящее время у робота Googlebot не возникает проблем при сканировании вашего сайта, поэтому настраивать параметры URL не требуется. Обратите внимание: поскольку неверная настройка параметров может привести к удалению страниц сайта из индекса Google, не рекомендуется использовать этот инструмент без необходимости." И на странице больше ничего нет?
 

il brutto

ПРОВЕРЕННЫЙ

il brutto

ПРОВЕРЕННЫЙ
Сообщения
27
Уже. 22 страницы на сайте, 125 страниц проиндексировано. Я вот думаю, может часть в ручную повыкидывать?
 

Попай

АДМИНИСТРАТОР

Попай

АДМИНИСТРАТОР
Сообщения
3,247
Уже. 22 страницы на сайте, 125 страниц проиндексировано. Я вот думаю, может часть в ручную повыкидывать?
Пока страниц мало их можно поудалять вручную. А когда будет больше, замучаетесь.
 

Hina

НОВИЧОК

Hina

НОВИЧОК
Сообщения
4
Хороший материал. Раньше как-то не обращала внимание на то, почему возникают ошибки при сканировании.
Множество дублей может создавать древовидная система комментирования, включенная на сайте. При такой системе создается столько дублей одной страницы, сколько было ответов на комментарий первого уровня.
 

sairus45

НОВИЧОК

sairus45

НОВИЧОК
Сообщения
3
Для начала их нужно найти.Для этого нужно прописать команду host:вашсайт.ru.Вам покажет истинное количество дублей.А затем скачать программу Xenu.Она вам и отредактирует все страницы.
 

vivat

НОВИЧОК

vivat

НОВИЧОК
Сообщения
2
Заметила у себя дубли только тогда, когда в Sape сайт добавила. Система нашла страницы, о существовании которых я и не знала. Вот теперь думаю, стоит ли избавляться от таких страниц, если сайт сделан под Sape и всё равно на его будущее...
 

sexydivx

НОВИЧОК

sexydivx

НОВИЧОК
Сообщения
1
Если закрыть теги в noindex, nofollow и удалить страницы дублей из sitemap то робот сможет попасть на эти страницы и добавить в индекс?
 

Попай

АДМИНИСТРАТОР

Попай

АДМИНИСТРАТОР
Сообщения
3,247

sas7110

НОВИЧОК

sas7110

НОВИЧОК
Сообщения
3
Спасибо, воспользовался данным методом, на сайте добавлено 47 статей, а в гугле проиндексированов 112, много дублей. Надеюсь, что больше половины из них закроется и позиции начнут расти.
 

Spree

НОВИЧОК

Spree

НОВИЧОК
Сообщения
3
Благодарю. Полезная статья. После проверки сайта, оказалось дублей больше чем реальных статей. Попробую на своём сайте
 

Skaska

ПРОВЕРЕННЫЙ

Skaska

ПРОВЕРЕННЫЙ
Сообщения
9
"скачать программу Xenu.Она вам и отредактирует все страницы." - это плагин для вордпресс?
 

Mvuser

СВОЙ МОДЕРАТОР

Mvuser

СВОЙ МОДЕРАТОР
Сообщения
2,353
"скачать программу Xenu.Она вам и отредактирует все страницы." - это плагин для вордпресс?
Нет, Xenu - это отдельная программа, которая сканирует любой сайт на мета теги и различные ошибки.
 

Fishka

ЭКСПЕРТ

Fishka

ЭКСПЕРТ
Сообщения
604
Удалить - это пол беды
главное - понять откуда лезут и предотвратить это.
потому что просто удалять это не выход.
 

Wsk

ПРОВЕРЕННЫЙ

Wsk

ПРОВЕРЕННЫЙ
Сообщения
139
+1 за Xenu.
На данный момент достаточно много плагинов контролирующих дубли страниц, как правило просто так они не создаются, и решить можно просто, вспомнить какие изменения вносились в сайт.
 

alexei_karpenko

ПРОВЕРЕННЫЙ

alexei_karpenko

ПРОВЕРЕННЫЙ
Сообщения
18
Добавлю свои несколько копеек, если не против.. Я вижу, что года идут, а пользователи до сих пор не понимают той истины, что файл robots.txt НЕ поможет при дублях. Потом что поисковик НЕ получит команду, что это индексировать не нужно.

ОН просто получит ЗАПРЕТ вообще. Как таковой.

Запомните - чтобы убрать все дубли на сайте, стоит в первую очередь воспользоваться бесплатным крошечным плагином noindex - можно скачать прямо из админки. Он на всех страницах (пагинации), группах, тегах - ставит атрибут noindex - и поисковые системы это НЕ индексируют. При этом к тем страницам ДОЛЖЕН быть открытый доступ в файле robots.txt

А почти все поголовно ставят громоздкие seo-плагины, типа yoast и all seo pack.....
 

Fishka

ЭКСПЕРТ

Fishka

ЭКСПЕРТ
Сообщения
604
alexei_karpenko, стало даже интересно.. это что за плагин такой? можно ссылку в студию? в репо по запросу noindex ничего интересного не находится.
 

alexei_karpenko

ПРОВЕРЕННЫЙ

alexei_karpenko

ПРОВЕРЕННЫЙ
Сообщения
18
стало даже интересно.. это что за плагин такой? можно ссылку в студию? в репо по запросу noindex ничего интересного не находится.
Все верно, это моя ошибка. На самом деле плагин именуется как Duplicate Content Cure - он бесплатный, и крошечный. Вы просто его устанавливаете и можете вручную проверить атрибут noindex в исходных кодах страницы. Плюс к этому правильно настроенный robots.txt - дублей НЕ будет! Шучу =) Будут но не более 2% от всего количества страниц. Представили Google уже не раз говорили, о том, что дубли НЕ критичный, но желательно их отсутствие... ссылку не дам ибо не помню =)
 

Топ поддержки


Сверху