Как запретить индексацию нужных страниц.

В данном обзоре рассмотрим как найти и навсегда удалить дубли страниц.

Как возникают дубликаты страниц

Основные причины появления дублей - несовершенство CMS сайта, практически все современные коммерческие и некоммерческие CMS генерируют дубли страниц. Другой причиной может быть низкий профессиональный уровень разработчика сайтов, который допустил появление дублей.

Какие бывают дубли страниц

1. Главная страница сайта, которая открывается с www и без www

пример www.site.ua и site.ua

site.ua/home.html и site.ua/

2. Динамическое содержание сайта с идентификаторами?, index.php, &view

site.ua/index.php?option=com_k2&Itemid=141&id=10&lang=ru&task=category&view=itemlist

site.ua/index.php?option=com_k2&Itemid=141&id=10&lang=ru&layout=category&task=category&view=itemlist

3. Со слешем в конце URL и без

4. Фильтры в интернет-магазине (пример )

site.ua//?Itemid=&product_book&

5. Странички печати

site.ua/cadok/?tmpl=component&print=1&layout=default&page=»

Какую опасность несут в себе дубли страниц

Представьте себе что вы читаете книгу где на страничках одинаковый текст, или очень похожий. Насколько полезна для вас такая информация? В таком же положении оказываются и поисковые машины, ища среди дубликатов вашего сайта то полезное содержимое которое необходимо пользователю.

Поисковые машины не любят такие сайты, следовательно ваш сайт не займет высокие позиции в поиске, и это несет для него прямую угрозу.

Как обнаружить дубликаты на сайте

1. С помощью команды site:site.ua можете проверить какие именно дубли попали в индекс поисковой машины.

2. Введите отрывки фраз с вашего сайте в поиск, таким образом обнаружите страницы на которых она присутствует

3. Инструменты для веб-мастеров Google, в разделе Вид в поиске → Оптимизация HTML, можете увидеть страницы, на которых есть повторяющееся метаописание или заголовки.

5 способов удалить дубликаты страниц

1. С помощью файла robots.txt

Disallow: /*?
Disallow: /index.php?*

Таким образом, дадим знать поисковой машине, что странички, которые содержат параметры?, index.php?, не должны индексироваться.

Есть одно «но»: файл robots - это только рекомендация для поисковых машин, а не правило, которому они абсолютно следуют. Если, например, на такую страничку поставлена ссылка то она попадет в индекс.

2. Файл.htaccess, позволяет решить проблему с дублями на уровне сервера.

Htaccess - это файл конфигурации сервера Apache, находится в корне сайта. Позволяет настраивать конфигурацию сервера для отдельно взятого сайта.

Склеить странички сайта 301 редиректом.

Redirect 301 /home.html http://site.ua/ (для статических страниц cайта)

RewriteCond %{QUERY_STRING} ^id=45454
RewriteRule ^index.php$ http://site.ua/news.html? (редирект для динамических страничек)

Использовать 410 редирект (полное удаление дубля)
Он сообщает что такой странички нет на сервере.

Redirect 410 /tag/video.html

Настроить домен с www и без www

Пример с www
Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^site\.ua
RewriteRule ^(.*)$ http://www.site.ua/$1

Без www
Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.site.ua$
RewriteRule ^(.*)$ http://site.ua/$1

Добавляем слеш в конце URL

RewriteCond %{REQUEST_URI} (.*/[^/.]+)($|\?) RewriteRule .* %1/

Для сайтов с большим количеством страниц будет довольно трудозатратно искать и склеивать дубли.

3. Инструменты для веб-мастеров

Функция Параметры URL позволяют запретить Google сканировать странички сайта с определенными параметрами

Или вручную удалить

Удаление страничек возможно только в случае если страничка:

Запрещена для индексации в файле robots.txt

Возвращает ответ сервера 404

Запрещена тегом noindex

4. Мета тег noindex - это самый действенный способ удаления дубликатов. Удаляет навсегда и бесповоротно.

По заявлению Google наличие тега noindex полностью исключает страничку из индекса.

Важно. Для того что бы робот смог удалить страничку, он должен ее проиндексировать, то есть она не должна быть закрыта от индексации в файле robots.txt.

Реализовать можно через регулярные выражения PHP, используя функцию preg_match() .

5. Атрибут rel=»canonical»

Атрибут rel=»canonical» дает возможность указать рекомендуемую (каноническую) страничку для индексации поисковыми машинами, таким образом дубликаты не попадают в индекс.

rel=»canonical» указывается двома способами

1. С помощью атрибута link в в HTTP-заголовке

Link: ; rel=»canonical»

2. В раздел добавить rel=»canonical» для неканонических версий страниц

В некоторые популярные CMS атрибут rel=»canonical» внедрен автоматически - например, Joomla! 3.0 (почитайте об ). У других CMS есть специальные дополнения.

Подведем итог. При разработке сайта учитывайте возможности появления дублей и заранее определяйте способы борьбы с ними. Создавайте правильную структуру сайта (подробнее .

Проверяйте периодически количество страниц в индексе, и используйте возможности панели Инструментов для веб-мастеров.

При написании использовались материалы

Зберегти

Зберегти

Любая страница на сайте может быть открыта или закрыта для индексации поисковыми системами. Если страница открыта, поисковая система добавляет ее в свой индекс, если закрыта, то робот не заходит на нее и не учитывает в поисковой выдаче.

При создании сайта важно на программном уровне закрыть от индексации все страницы, которые по каким-либо причинам не должны видеть пользователи и поисковики.

К таким страницам можно отнести административную часть сайта (админку), страницы с различной служебной информацией (например, с личными данными зарегистрированных пользователей), страницы с многоуровневыми формами (например, сложные формы регистрации), формы обратной связи и т.д.

Пример:
Профиль пользователя на форуме о поисковых системах Searchengines.

Обязательным также является закрытие от индексации страниц, содержимое которых уже используется на других страницах.Такие страницы называются дублирующими. Полные или частичные дубли сильно пессимизируют сайт, поскольку увеличивают количество неуникального контента на сайте.

Как видим, контент на обеих страницах частично совпадает. Поэтому страницы категорий на WordPress-сайтах закрывают от индексации, либо выводят на них только название записей.

То же самое касается и страниц тэгов– такие страницы часто присутствуют в структуре блогов на WordPress. Облако тэгов облегчает навигацию по сайту и позволяет пользователям быстро находить интересующую информацию. Однако они являются частичными дублями других страниц, а значит – подлежат закрытию от индексации.

Еще один пример – магазин на CMS OpenCart.

Страница категории товаров http://www.masternet-instrument.ru/Lampy-energosberegajuschie-c-906_910_947.html .

Страница товаров, на которые распространяется скидка http://www.masternet-instrument.ru/specials.php .

Данные страницы имеют схожее содержание, так как на них размещено много одинаковых товаров.

Особенно критично к дублированию контента на различных страницах сайта относится Google. За большое количество дублей в Google можно заработать определенные санкции вплоть до временного исключения сайта из поисковой выдачи.

Еще один случай, когда содержимое страниц не стоит «показывать» поисковику – страницы с неуникальным контентом. Типичный пример — инструкции к медицинским препаратам в интернет-аптеке. Контент на странице с описанием препарата http://www.piluli.ru/product271593/product_info.html неуникален и опубликован на сотнях других сайтов.

Сделать его уникальным практически невозможно, поскольку переписывание столь специфических текстов – дело неблагодарное и запрещенное. Наилучшим решением в этом случае будет закрытие страницы от индексации, либо написание письма в поисковые системы с просьбой лояльно отнестись к неуникальности контента, который сделать уникальным невозможно по тем или иным причинам.

Как закрывать страницы от индексации

Классическим инструментом для закрытия страниц от индексации является файл robots.txt. Он находится в корневом каталоге вашего сайта и создается специально для того, чтобы показать поисковым роботам, какие страницы им посещать нельзя. Это обычный текстовый файл, который вы в любой момент можете отредактировать. Если файла robots.txt у вас нет или если он пуст, поисковики по умолчанию будут индексировать все страницы, которые найдут.

Структура файла robots.txt довольно проста. Он может состоять из одного или нескольких блоков (инструкций). Каждая инструкция, в свою очередь, состоит из двух строк. Первая строка называется User-agent и определяет, какой поисковик должен следовать этой инструкции. Если вы хотите запретить индексацию для всех поисковиков, первая строка должна выглядеть так:

Если вы хотите запретить индексацию страницы только для одной ПС, например, для Яндекса, первая строка выглядит так:

Вторая строчка инструкции называется Disallow (запретить). Для запрета всех страниц сайта напишите в этой строке следующее:

Чтобы разрешить индексацию всех страниц вторая строка должна иметь вид:

В строке Disallow вы можете указывать конкретные папки и файлы, которые нужно закрыть от индексации.

Например, для запрета индексации папки images и всего ее содержимого пишем:

Чтобы «спрятать» от поисковиков конкретные файлы, перечисляем их:

User-agent: *
Disallow: /myfile1.htm
Disallow: /myfile2.htm
Disallow: /myfile3.htm

Это – основные принципы структуры файла robots.txt. Они помогут вам закрыть от индексации отдельные страницы и папки на вашем сайте.

Еще один, менее распространенный способ запрета индексации – мета-тэг Robots. Если вы хотите закрыть от индексации страницу или запретить поисковикам индексировать ссылки, размещенные на ней, в ее HTML-коде необходимо прописать этот тэг. Его надо размещать в области HEAD, перед тэгом .</p> <p>Мета-тег Robots состоит из двух параметров. INDEX – параметр, отвечающий за индексацию самой страницы, а FOLLOW – параметр, разрешающий или запрещающий индексацию ссылок, расположенных на этой странице.</p> <p>Для запрета индексации вместо INDEX и FOLLOW следует писать NOINDEX и NOFOLLOW соответственно.</p> <p>Таким образом, если вы хотите закрыть страницу от индексации и запретить поисковикам учитывать ссылки на ней, вам надо добавить в код такую строку:</p> <blockquote><p><meta name=“robots” content=“noindex,nofollow”></p> </blockquote> <p>Если вы не хотите скрывать страницу от индексации, но вам необходимо «спрятать» ссылки на ней, мета-тег Robots будет выглядеть так:</p> <blockquote><p><metaname=“robots” content=“index,nofollow”></p> </blockquote> <p>Если же вам наоборот, надо скрыть страницу от ПС, но при этом учитывать ссылки, данный тэг будет иметь такой вид:</p> <blockquote><p><meta name=“robots” content=“noindex,follow”></p> </blockquote> <p>Большинство современных CMS дают возможность закрывать некоторые страницы от индексации прямо из админ.панели сайта. Это позволяет избежать необходимости разбираться в коде и настраивать данные параметры вручную. Однако перечисленные выше способы были и остаются универсальными и самыми надежными инструментами для запрета индексации.</p> <p>У <a href="/settings/platnye-dvizhki-sravnenie-besplatnyh-cms-wordpress-joomla-drupal-i-dr-reiting.html">CMS Joomla</a> есть один недостаток, это дубли адресов страниц. Дубли — это когда одна статья доступна по двум адресам.</p><p>Например:</p><p>Подробнее и как убрать из индексации дубли страниц в Joomla читаем под катом.</p><p><img src='https://i1.wp.com/rightblog.ru/wp-content/uploads/2011/10/chain.jpg' width="100%" loading=lazy></p><p>У CMS Joomla есть один недостаток, это дубли адресов страниц. Дубли — это когда одна статья доступна по двум адресам. Например:</p><blockquote><p>http://сайт/dizayn/ikonki-sotsial-noy-seti-vkonrtakte.html</p><p>index.php?option=com_content&view=article&id=99:vkontakteicons&catid=5:design&Itemid=5</p> </blockquote><p><b>Как появляются дубли страниц? </b> Очень просто, на примере выше мы видим две ссылки на один материал. Первая ссылка - красивая и человекопонятная (ЧПУ ссылка), создана компонентом JoomSEF который преобразует все ссылки на сайте в такой красивый, удобочитаемый вид. Вторая ссылка - внутренная системная ссылка Джумлы, и если бы компонент Artio JoomSef не был установлен, то все ссылки на сайте были бы как вторая — непонятные и некрасивые. Теперь от том насколько это страшно и как бороться с дублями.</p><p><b>Насколько дубли вредны для сайта. </b> Я бы не называл его очень большим недостатком, так как по моему мнению, поисковые машины не должны сильно банить и пессимизировать сайт за такие дубли, так как дубли эти делаются не специально, а являются частью CMS системы. Причем, замечу, очень популярной системы, на которой сделаны миллионы сайтов, а значит поисковики научились понимать такую «особенность». Но все таки, если есть возможность и желание, то лучше такие дубли позакрывать от глаз большого брата.</p><h3><b>Как бороться с дублями в Joomla и других cms </b></h3><p><b>1) Два дубля одной страницы, запрет в robots.txt </b></p><p>К примеру, в индекс поисковика попадают следующие два адреса одной страницы:</p><blockquote><p>http://site.ru/страница.html?replytocom=371<br> http://site.ru/страница.html?iframe=true&width=900&height=450</p> </blockquote><p>Для закрытия таких дублей в robots.txt нужно добавить:</p><blockquote><p>Disallow: /*?*<br> Disallow: /*?</p> </blockquote><p>Этим действием мы закрыли от индексации все ссылки сайта со знаком «?». Такой вариант подходит для сайтов где включена работа ЧПУ, и нормальные ссылки не имеют в себе знаков вопроса — «?».</p><p><b>2. Использовать тег rel=”canonical” </b></p><p>Допустим на одну страницу идет две ссылки с разными адресами. <a href="/personal-account/sdelat-gugl-glavnym-poiskovikom-kak-sdelat-google-poiskom-po-umolchaniyu.html">Поисковикам Google</a> и Yahoo моджно указать на то какой адрес на страницу является главным. Для этого в теге <a> надо прописать тег rel=”canonical”. Яндекс эту опцию не поддерживает.</p><p>Для Joomla для постановки тега rel=”canonical” я нашел два расширения, под названием 1)plg_canonical_v1.2; и 2) 098_mod_canonical_1.1.0. Можете их потестировать. Но я бы поступил другим образом и просто запретил к индексации все ссылки имеющие в себе знак вопроса, как показал в примере выше.</p><p><b>3. Запретить индексирование в robots.txt Joomla дублей (страницы с окончанием index.php) и других не нужных страниц. </b></p><p>Так как все дубли страниц в Joomla начинаются с index.php, то можно запретить их все к индексации одной строкой в robots.txt - Disallow: /index.php. Также этим самым мы запретим дубль главной страницы, когда она доступна по адресу «http://site.ru/» и «http://site.ru/index.php».</p><p><b>4. Cклейка домена с www и без при помощи 301 редиректа (переадресаци). </b></p><p>Для склейки домена с www и без нужно сделать переадресацию – 301 редирект. Для этого в файле.htaccess прописываем:</p><blockquote><p>RewriteEngine on<br> </p> </blockquote><p>Если вам нужно наоборот сделать редирект с http://site.ru на www.site.ru, то запись будет выглядеть так:</p><blockquote><p>RewriteEngine On<br> RewriteCond %{HTTP_HOST} ^site.ru<br> RewriteRule (.*) http://www.site.ru/$1 </p> </blockquote><p><b>5. Директива Host дает определение основного домена с www или без для Яндекса. </b></p><p>Для тех вебмастеров, которые только что создали свой сайт, не спешите выполнять те действия, которые я описал в этом пункте, сначала нужно составить правильный robots.txt прописать директиву Host, этим вы определите основной домен в глазах яндекса.</p><p>Это будет выглядеть следующим образом:</p><blockquote><p>User-Agent: Yandex<br> Host: site.ru</p> </blockquote><p>Директиву Host понимает только Яндекс. Google ее не понимает.</p><p><b>6. Joomla дубли страниц склеиваем в файле.htaccess. </b></p><p>Очень часто главная страница сайта на joomla бывает доступна по адресу http://site.ru/index.html или http://site.ru/index.рhp, http://site.ru.html , то есть это дубли главной страницы (http://site.ru), конечно от них можно избавиться путем закрытия их в robots.txt, но лучше это сделать при помощи.htaccess. Для этого в этот файл добавить следующее:</p><blockquote><p><br> </p> </blockquote><p>Используйте этот код если вам нужно избавиться от дубля с index.рhp, не забудьте в коде вместо http://ваш сайт.ru/, поставить свой домен.</p><p>Чтобы проверить получилась у вас или нет, просто введите в браузер адрес дубля (http://site.ru/index.рhp), если получилось, то вас перебросит на страницу http://site.ru, также будет происходить и с поисковыми ботами и они не будут видеть эти дубли.</p><p>И по аналогии склеиваем Joomla дубли с другими приставками к URI вашей главной страницы, просто отредактируйте код который я привел выше.</p><p><b>7. Указать sitemap в robots.txt </b></p><p>Хоть это и не относится к дублям, но раз уж пошла такая движуха, то заодно я рекомендую в файле robots.txt указать путь к карте сайта в xml формате для поисковиков:</p><blockquote><p>Sitemap: http://домен.ru/sitemap.xml.gz<br> Sitemap: http://домен.ru/sitemap.xml</p> </blockquote><h3>Итог</h3><p>Подвоя итог вышесказанному, для Joomla я бы прописал вот такие строки в robots.txt:</p><blockquote><p>Disallow: /index.php</p><p><b>Указать основной хост для Яндекса </b></p><p>User-Agent: Yandex<br> Host: site.ru</p> </blockquote><p>И вот такие строки в.htaccess</p><blockquote><p><b># Склейка домена с www и без </b></p><p>RewriteEngine on<br> RewriteCond %{HTTP_HOST} ^www.site.ru<br> RewriteRule ^(.*)$ http://site.ru/$1 </p><p><b># Склейка дублей страниц </b></p><p>RewriteCond %{THE_REQUEST} ^{3,9} /index.php HTTP/<br> RewriteRule ^index.php$ http://ваш сайт.ru/ </p> </blockquote><p>Если вы используете другие способы устранения дублей, знаете как усовершенствовать описанное выше или просто Вам есть что сказать по этой теме - пишите, жду в комментариях.</p> <p>Большинство роботов хорошо спроектированы и не создают каких-либо проблем для владельцев сайтов. Но если бот написан дилетантом или «что-то пошло не так», то он может создавать существенную нагрузку на сайт, который он обходит. Кстати, пауки вовсе на заходят на сервер подобно вирусам — они просто запрашивают нужные им страницы удаленно (по сути это аналоги браузеров, но без функции просмотра страниц).</p><h2>Robots.txt — директива user-agent и боты поисковых систем</h2><p>Роботс.тхт имеет совсем не сложный синтаксис, который очень подробно описан, например, в <b>хелпе яндекса </b> и <b>хелпе Гугла </b> . Обычно в нем указывается, для какого поискового бота предназначены описанные ниже директивы: имя бота ("<b>User-agent </b>"), разрешающие ("<b>Allow </b>") и запрещающие ("<b>Disallow </b>"), а также еще активно используется "Sitemap" для указания поисковикам, где именно находится файл карты.</p><p>Стандарт создавался довольно давно и что-то было добавлено уже позже. Есть директивы и правила оформления, которые будут понятны только роботами определенных поисковых систем. В рунете интерес представляют в основном только Яндекс и Гугл, а значит именно с их хелпами по составлению robots.txt следует ознакомиться особо детально (ссылки я привел в предыдущем абзаце).</p><p>Например, раньше для поисковой системы Яндекс было полезным указать, вашего вебпроекта является главным в специальной директиве "Host", которую понимает только этот поисковик (ну, еще и Майл.ру, ибо у них поиск от Яндекса). Правда, в начале 2018 <b>Яндекс все же отменил Host </b> и теперь ее функции как и у других поисковиков выполняет 301-редирект.</p><p>Если даже у вашего ресурса нет зеркал, то полезно будет указать, какой из вариантов написания является главным - .</p><p>Теперь поговорим немного о синтаксисе этого файла. Директивы в robots.txt имеют следующий вид:</p><p> <поле>:<пробел><значение><пробел> <поле>:<пробел><значение><пробел> </p><p>Правильный код должен содержать <b>хотя бы одну директиву «Disallow» </b> после каждой записи «User-agent». Пустой файл предполагает разрешение на индексирование всего сайта.</p><h3>User-agent</h3><p><b>Директива «User-agent» </b> должна содержать название поискового бота. При помощи нее можно настроить правила поведения для каждого конкретного поисковика (например, создать запрет индексации отдельной папки только для Яндекса). Пример написания «User-agent», адресованной всем ботам зашедшим на ваш ресурс, выглядит так:</p><p>User-agent: * </p><p>Если вы хотите в «User-agent» задать определенные условия только для какого-то одного бота, например, Яндекса, то нужно написать так:</p><p>User-agent: Yandex </p><h3>Название роботов поисковых систем и их роль в файле robots.txt</h3><p><b>Бот каждой поисковой системы </b> имеет своё название (например, для рамблера это StackRambler). Здесь я приведу список самых известных из них:</p><p>Google http://www.google.com Googlebot Яндекс http://www.ya.ru Yandex Бинг http://www.bing.com/ bingbot </p><p>У крупных поисковых систем иногда, <b>кроме основных ботов </b>, имеются также отдельные экземпляры для индексации блогов, новостей, изображений и т.д. Много информации по разновидностям ботов вы можете почерпнуть (для Яндекса) и (для Google).</p><p>Как быть в этом случае? Если нужно написать правило запрета индексации, которое должны выполнить все типы роботов Гугла, то используйте название Googlebot и все остальные пауки этого поисковика тоже послушаются. Однако, можно запрет давать только, например, на индексацию картинок, указав в качестве User-agent бота Googlebot-Image. Сейчас это не очень понятно, но на примерах, я думаю, будет проще.</p><h2>Примеры использования директив Disallow и Allow в роботс.тхт</h2><p>Приведу несколько простых <b>примеров использования директив </b> с объяснением его действий.</p><ol><li>Приведенный ниже код разрешает всем ботам (на это указывает звездочка в User-agent) проводить индексацию всего содержимого без каких-либо исключений. Это задается <b>пустой директивой Disallow </b>. User-agent: * Disallow:</li><li>Следующий код, напротив, полностью запрещает всем поисковикам добавлять в индекс страницы этого ресурса. Устанавливает это Disallow с «/» в поле значения. User-agent: * Disallow: /</li><li>В этом случае будет запрещаться всем ботам просматривать содержимое каталога /image/ (http://mysite.ru/image/ — <a href="/the-answers-to-the-questions/kakoi-teg-ispolzuetsya-dlya-sozdaniya-giperssylki-sozdanie-ssylok-v-html.html">абсолютный путь</a> к этому каталогу) User-agent: * Disallow: /image/</li><li>Чтобы заблокировать один файл, достаточно будет прописать его абсолютный путь до него (читайте ): User-agent: * Disallow: /katalog1//katalog2/private_file.html <p>Забегая чуть вперед скажу, что проще использовать символ звездочки (*), чтобы не писать полный путь:</p><p>Disallow: /*private_file.html</p></li><li>В приведенном ниже примере будут запрещены директория «image», а также все файлы и директории, начинающиеся с символов «image», т. е. файлы: «image.htm», «images.htm», каталоги: «image», «images1», «image34» и т. д.): User-agent: * Disallow: /image Дело в том, что по умолчанию в конце записи подразумевается звездочка, которая заменяет любые символы, в том числе и их отсутствие. Читайте об этом ниже.</li><li>С помощью <b>директивы Allow </b>мы разрешаем доступ. Хорошо дополняет Disallow. Например, таким вот условием поисковому роботу Яндекса мы запрещаем выкачивать (индексировать) все, кроме вебстраниц, адрес которых начинается с /cgi-bin: User-agent: Yandex Allow: /cgi-bin Disallow: / <p>Ну, или такой вот очевидный пример использования связки Allow и Disallow:</p><p>User-agent: * Disallow: /catalog Allow: /catalog/auto</p></li><li>При описании путей для директив Allow-Disallow можно использовать символы <b>"*" и "$" </b>, задавая, таким образом, определенные логические выражения. <ol><li>Символ <b>"*"(звездочка) </b> означает любую (в том числе пустую) последовательность символов. Следующий пример запрещает всем поисковикам индексацию файлов с расширение «.php»: User-agent: * Disallow: *.php$</li><li>Зачем нужен на конце <b>знак $ (доллара) </b>? Дело в том, что по логике составления файла robots.txt, в конце каждой директивы как бы дописывается умолчательная звездочка (ее нет, но она как бы есть). Например мы пишем: Disallow: /images <p>Подразумевая, что это то же самое, что:</p><p>Disallow: /images* </p><p>Т.е. это правило запрещает индексацию всех файлов (вебстраниц, картинок и других типов файлов) адрес которых начинается с /images, а дальше следует все что угодно (см. пример выше). Так вот, <b>символ $ </b> просто отменяет эту умолчательную (непроставляемую) звездочку на конце. Например:</p><p>Disallow: /images$ </p><p>Запрещает только индексацию файла /images, но не /images.html или /images/primer.html. Ну, а в первом примере мы запретили индексацию только файлов оканчивающихся на.php (имеющих такое расширение), чтобы ничего лишнего не зацепить:</p><p>Disallow: *.php$</p></li> </ol></li> </ol><li>Во многих движках пользователи (человеко-понятные Урлы), в то время как Урлы, генерируемые системой, имеют знак вопроса "?" в адресе. Этим можно воспользоваться и написать такое правило в robots.txt: User-agent: * Disallow: /*? <p>Звездочка после вопросительного знака напрашивается, но она, как мы с вами выяснили чуть выше, уже подразумевается на конце. Таким образом мы запретим индексацию страниц поиска и прочих служебных страниц создаваемых движком, до которых может дотянуться поисковый робот. Лишним не будет, ибо знак вопроса чаще всего CMS используют как идентификатор сеанса, что может приводить к попаданию в индекс дублей страниц.</p></li><h2>Директивы Sitemap и Host (для Яндекса) в Robots.txt</h2><p>Во избежании возникновения неприятных проблем с зеркалами сайта, раньше рекомендовалось добавлять в robots.txt директиву Host, которая указывал боту Yandex на главное зеркало.</p><h3>Директива Host — указывает главное зеркало сайта для Яндекса</h3><p>Например, раньше, если вы <b>еще не перешли на защищенный протокол </b>, указывать в Host нужно было не полный Урл, а <a href="/tv/kak-stat-registratorom-domennyh-imen-kak-zaregistrirovat.html">доменное имя</a> (без http://, т.е..ru). Если же уже перешли на https, то указывать нужно будет полный Урл (типа https://myhost.ru).</p><blockquote><p>Замечательный инструмент для борьбы с дублями контента — поисковик просто не будет индексировать страницу, если в Canonical прописан другой урл. Например, для такой страницы моего блога (страницы с пагинацией) Canonical указывает на https://сайт и никаких проблем с дублированием тайтлов возникнуть не должно.</p><p> <link rel="canonical" href="https://сайт/" /> </p><p>Но это я отвлекся...</p><p>Если ваш проект создан на основе какого-либо движка, то <b>дублирование контента будет иметь место </b> с высокой вероятностью, а значит нужно с ним бороться, в том числе и с помощью запрета в robots.txt, а особенно в мета-теге, ибо в первом случае Google запрет может и проигнорировать, а вот на метатег наплевать он уже не сможет (так воспитан).</p><p>Например, в <a href="/tv/plagin-dlya-navigacii-stranic-wordpress-unikalnaya-postranichnaya-navigaciya.html">WordPress страницы</a> с очень похожим содержимым могут попасть в индекс поисковиков, если разрешена индексация и содержимого рубрик, и содержимого архива тегов, и содержимого временных архивов. Но если с помощью описанного выше мета-тега Robots создать запрет для архива тегов и временного архива (можно теги оставить, а запретить индексацию содержимого рубрик), то дублирования контента не возникнет. Как это сделать описано по ссылке приведенной чуть выше (на плагин ОлИнСеоПак)</p><p>Подводя итог скажу, что файл Роботс предназначен для задания глобальных правил запрета доступа в целые директории сайта, либо в файлы и папки, в названии которых присутствуют заданные символы (по маске). Примеры задания таких запретов вы можете посмотреть чуть выше.</p><p>Теперь давайте рассмотрим конкретные примеры роботса, предназначенного для разных движков — Joomla, WordPress и SMF. Естественно, что все три варианта, созданные для разных CMS, будут существенно (если не сказать кардинально) отличаться друг от друга. Правда, у всех у них будет один общий момент, и момент этот связан с поисковой системой Яндекс.</p><p>Т.к. в рунете Яндекс имеет достаточно большой вес, то нужно учитывать все нюансы его работы, и тут нам <b>поможет директива Host </b>. Она в явной форме укажет этому поисковику главное зеркало вашего сайта.</p><p>Для нее советуют использовать отдельный блог User-agent, предназначенный только для Яндекса (User-agent: Yandex). Это связано с тем, что остальные поисковые системы могут не понимать Host и, соответственно, ее включение в запись User-agent, предназначенную для всех поисковиков (User-agent: *), может привести к <a href="/settings/posledstviya-razvitiya-informacionnyh-tehnologii-v-sovremennom-obshchestve.html">негативным последствиям</a> и неправильной индексации.</p><p>Как обстоит дело на самом деле — сказать трудно, ибо алгоритмы работы поиска — это вещь в себе, поэтому лучше сделать так, как советуют. Но в этом случае придется продублировать в директиве User-agent: Yandex все те правила, что мы задали User-agent: * . Если вы оставите User-agent: Yandex с пустым Disallow: , то таким образом вы разрешите Яндексу заходить куда угодно и тащить все подряд в индекс.</p><h3>Robots для WordPress</h3><p>Не буду приводить пример файла, который рекомендуют разработчики. Вы и сами можете его посмотреть. Многие блогеры вообще не ограничивают ботов Яндекса и Гугла в их прогулках по содержимому движка WordPress. Чаще всего в блогах можно встретить роботс, автоматически заполненный плагином .</p><p>Но, по-моему, все-таки следует помочь поиску в нелегком деле отсеивания зерен от плевел. Во-первых, на индексацию этого мусора уйдет много времени у ботов Яндекса и Гугла, и может совсем не остаться времени для добавления в индекс вебстраниц с вашими новыми статьями. Во-вторых, боты, лазящие по мусорным файлам движка, будут создавать дополнительную нагрузку на сервер вашего хоста, что не есть хорошо.</p><p>Мой вариант этого файла вы можете сами посмотреть. Он старый, давно не менялся, но я стараюсь следовать принципу «не чини то, что не ломалось», а вам уже решать: использовать его, сделать свой или еще у кого-то подсмотреть. У меня там еще запрет индексации страниц с пагинацией был прописан до недавнего времени (Disallow: */page/), но недавно я его убрал, понадеясь на Canonical, о котором писал выше.</p><p>А вообще, <b>единственно <a href="/services/konverter-dlya-pravilnogo-otobrazheniya-faila-word-vybor.html">правильного файла</a> </b> для WordPress, наверное, не существует. Можно, кончено же, реализовать в нем любые предпосылки, но кто сказал, что они будут правильными. Вариантов идеальных robots.txt в сети много.</p><p><b>Приведу две крайности </b>:</p><ol><li> можно найти мегафайлище с подробными пояснениями (символом # отделяются комментарии, которые в реальном файле лучше будет удалить): User-agent: * # <a href="/rates/kak-postroit-lvs---lokalnuyu-set-malogo-predpriyatiya-lokalnaya-set.html">общие правила</a> для роботов, кроме Яндекса и Google, # т.к. для них правила ниже Disallow: /cgi-bin # папка на хостинге Disallow: /? # все параметры запроса на главной Disallow: /wp- # все файлы WP: /wp-json/, /wp-includes, /wp-content/plugins Disallow: /wp/ # если есть подкаталог /wp/, где установлена CMS (если нет, # правило можно удалить) Disallow: *?s= # поиск Disallow: *&s= # поиск Disallow: /search/ # поиск Disallow: /author/ # архив автора Disallow: /users/ # архив авторов Disallow: */trackback # трекбеки, уведомления в комментариях о появлении открытой # ссылки на статью Disallow: */feed # все фиды Disallow: */rss # rss фид Disallow: */embed # все встраивания Disallow: */wlwmanifest.xml # xml-файл манифеста <a href="/rates/dostup-k-celevoi-papke-v-windows-7-naznachenie-vladelca-papki-v-windows.html">Windows Live</a> Writer (если не используете, # правило можно удалить) Disallow: /xmlrpc.php # файл WordPress API Disallow: *utm= # ссылки с utm-метками Disallow: *openstat= # ссылки с метками openstat Allow: */uploads # открываем папку с файлами uploads User-agent: GoogleBot # правила для Google (комментарии не дублирую) Disallow: /cgi-bin Disallow: /? Disallow: /wp- Disallow: /wp/ Disallow: *?s= Disallow: *&s= Disallow: /search/ Disallow: /author/ Disallow: /users/ Disallow: */trackback Disallow: */feed Disallow: */rss Disallow: */embed Disallow: */wlwmanifest.xml Disallow: /xmlrpc.php Disallow: *utm= Disallow: *openstat= Allow: */uploads Allow: /*/*.js # открываем js-скрипты внутри /wp- (/*/ - для приоритета) Allow: /*/*.css # открываем css-файлы внутри /wp- (/*/ - для приоритета) Allow: /wp-*.png # картинки в плагинах, cache папке и т.д. Allow: /wp-*.jpg # картинки в плагинах, cache папке и т.д. Allow: /wp-*.jpeg # картинки в плагинах, cache папке и т.д. Allow: /wp-*.gif # картинки в плагинах, cache папке и т.д. Allow: /wp-admin/admin-ajax.php # используется плагинами, чтобы не блокировать JS и CSS User-agent: Yandex # правила для Яндекса (комментарии не дублирую) Disallow: /cgi-bin Disallow: /? Disallow: /wp- Disallow: /wp/ Disallow: *?s= Disallow: *&s= Disallow: /search/ Disallow: /author/ Disallow: /users/ Disallow: */trackback Disallow: */feed Disallow: */rss Disallow: */embed Disallow: */wlwmanifest.xml Disallow: /xmlrpc.php Allow: */uploads Allow: /*/*.js Allow: /*/*.css Allow: /wp-*.png Allow: /wp-*.jpg Allow: /wp-*.jpeg Allow: /wp-*.gif Allow: /wp-admin/admin-ajax.php Clean-Param: utm_source&utm_medium&utm_campaign # Яндекс рекомендует не закрывать # от индексирования, а удалять параметры меток, # Google такие правила не поддерживает Clean-Param: openstat # аналогично # Укажите один или несколько файлов Sitemap (дублировать для каждого User-agent # не нужно). Google XML Sitemap создает 2 карты сайта, как в примере ниже. Sitemap: http://site.ru/sitemap.xml Sitemap: http://site.ru/sitemap.xml.gz # Укажите главное зеркало сайта, как в примере ниже (с WWW / без WWW, если HTTPS # то пишем протокол, если нужно указать порт, указываем). Команду Host понимает # Яндекс и Mail.RU, Google не учитывает. Host: www.site.ru</li><li>А вот можно взять на вооружение пример минимализма: User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php Host: https://site.ru Sitemap: https://site.ru/sitemap.xml</li> </ol><p>Истина, наверное, лежит где-то посредине. Еще не забудьте прописать мета-тег Robots для «лишних» страниц, например, с помощью чудесного плагина — . Он же поможет и Canonical настроить.</p><h3>Правильный robots.txt для Joomla</h3><p>User-agent: * Disallow: /administrator/ Disallow: /bin/ Disallow: /cache/ Disallow: /cli/ Disallow: /components/ Disallow: /includes/ Disallow: /installation/ Disallow: /language/ Disallow: /layouts/ Disallow: /libraries/ Disallow: /logs/ Disallow: /modules/ Disallow: /plugins/ Disallow: /tmp/ </p><p>В принципе, здесь практически все учтено и работает он хорошо. Единственное, в него следует добавить отдельное правило User-agent: Yandex для вставки директивы Host, определяющей главное зеркало для Яндекса, а так же указать путь к файлу Sitemap.</p><p>Поэтому в окончательном виде правильный robots для Joomla, по-моему мнению, должен выглядеть так:</p><p>User-agent: Yandex Disallow: /administrator/ Disallow: /cache/ Disallow: /includes/ Disallow: /installation/ Disallow: /language/ Disallow: /libraries/ Disallow: /modules/ Disallow: /plugins/ Disallow: /tmp/ Disallow: /layouts/ Disallow: /cli/ Disallow: /bin/ Disallow: /logs/ Disallow: /components/ Disallow: /component/ Disallow: /component/tags* Disallow: /*mailto/ Disallow: /*.pdf Disallow: /*% Disallow: /index.php Host: vash_sait.ru (или www.vash_sait.ru) User-agent: * Allow: /*.css?*$ Allow: /*.js?*$ Allow: /*.jpg?*$ Allow: /*.png?*$ Disallow: /administrator/ Disallow: /cache/ Disallow: /includes/ Disallow: /installation/ Disallow: /language/ Disallow: /libraries/ Disallow: /modules/ Disallow: /plugins/ Disallow: /tmp/ Disallow: /layouts/ Disallow: /cli/ Disallow: /bin/ Disallow: /logs/ Disallow: /components/ Disallow: /component/ Disallow: /*mailto/ Disallow: /*.pdf Disallow: /*% Disallow: /index.php Sitemap: http://путь к вашей карте XML формата </p><p>Да, еще обратите внимание, что во втором варианте есть директивы <b>Allow, разрешающие индексацию стилей, скриптов и картинок </b>. Написано это специально для Гугла, ибо его Googlebot иногда ругается, что в роботсе запрещена индексация этих файлов, например, из папки с используемой темой оформления. Даже грозится за это понижать в ранжировании.</p><p>Поэтому заранее все это дело разрешаем индексировать с помощью Allow. То же самое, кстати, и в примере файла для Вордпресс было.</p> <p>Удачи вам! До скорых встреч на страницах блога сайт</p><blockquote>посмотреть еще ролики можно перейдя на </blockquote>");"><br><img src='https://i2.wp.com/ktonanovenkogo.ru/wp-content/uploads/video/image/parkur-kadr.jpg' width="100%" loading=lazy><p>Вам может быть интересно</p><p><img src='https://i2.wp.com/ktonanovenkogo.ru/wp-content/uploads/2013/10/redirekt-na-www.jpg' width="100%" loading=lazy><span>Домены с www и без него - история появления, использование 301 редиректа для их склеивания </span> <br><img src='https://i1.wp.com/ktonanovenkogo.ru/wp-content/uploads/2014/05/scleit-zercla-saita.jpg' width="100%" loading=lazy><span>Зеркала, дубли страниц и Url адреса - аудит вашего сайта или что может быть причиной краха при его SEO продвижении </p></blockquote> <p>Привет, друзья! По своей статистике я определил, что больше половины вебмастеров и оптимизаторов не совсем корректно закрывают от индексации дубли страниц. Итог - более долгое нахождение мусорных документов в выдаче. Как вариант - страницы в принципе остаются проиндексированными (не удается удалить).</p> <p>Ниже я укажу, какие основные ошибки совершаются при попытке удаления дублей, а также разберу <a href="/settings/kak-ispravit-otsutstvuyushchii-v-windows-znachok-besprovodnoe-setevoe.html">правильные методы</a> запрета для популярных типов документов.</p> <p>Я не буду останавливаться на вопросах: "Почему дубли - это плохо?" и "Как их искать?". Ответы на них вы можете прочитать в посте " ". Сегодня акцентируется внимание на корректности того или иного способа для определенных видов страниц.</p> <p>Все мы люди и можем совершать ошибки. Благо в данной теме обычно они не является критичными . Я выделил 4 основные причины, по которым встречаются некорректности.</p> <ol><li>Использование сразу несколько способов закрытия. Иногда встречается, что вебмастер закрыл страницу в robots.txt, добавил в head meta name="robots", а ниже, для пущей надежности rel="canonical". Когда документ запрещен в роботсе, то поисковый паук не сможет просканировать его содержимое.</li> <li>Использование только одного метода - robots.txt. Если лет 5-7 назад это был практически единственный способ для удаления дублей, то сейчас он не является самым эффективным и универсальным.</li> <li>Когда правила, по которым запрещаются страницы, являются более общими и затрагивают нормальные документы. На мой взгляд, лучше написать 2 частных правила для конкретных параметров, чем одно общее, которое потенциально может затронуть качественный контент.</li> <li>Использование некорректного метода, который не подходит для <a href="/rates/kak-vstavit-risunok-v-aksess-vstavka-obektov-v-pole-s-tipom-dannyh-ole-kak.html">данного типа</a> документов (например, редирект для сортировок).</li> </ol><p>Не могу сказать, что если ваш оптимизатор использует только robots, то его стоит сразу уволить. Многое зависит от ресурсов и особенностей их индексирования. Методы запрета необходимо выбирать, исходя непосредственно из нюансов проекта.</p> <p>Перехожу непосредственно к корректным способам, которые позволят удалить из поиска дубли и "мусор". Методы расставлены в порядке приоритета (1 - самый приоритетный).</p> <h3>1. Удаление </h3> <p>Если это возможно, в первую очередь, нужно удалить ненужные документы. Нет материала, значит ничего не надо запрещать . Это могут быть:</p> <ol><li>категории интернет-магазина без товаров, которые не будут возобновляться;</li> <li>система тегов. Исключение - страницы меток, оформленные должным образом: действительно, интересны посетителям, имеют качественный title, description, небольшое описание. Другими словами, не просто список связанных материалов, а по-настоящему полноценная страница.</li> <li>Бесконечно вложенные URL. Это когда в урл можно добавлять бесконечное (или конечное) количество вложений. Например, документ site.ru/post/ может быть доступен по site.ru/post/post/post/. Запрет создания подобной структуры необходимо решать на уровне сервера и/или CMS (они должны отдавать 404-ошибку).</li> </ol><p><img src='https://i1.wp.com/sosnovskij.ru/wp-content/uploads/2017/06/perenapravlenie.png' align="center" width="100%" loading=lazy></p> <h3>2. 301-редирект </h3> <p>Весь "мусор", который нельзя удалить нужно перенаправлять на основные документы. Для этого необходимо использовать 301-редирект. Каким типам страниц подходит данный метод?</p> <ol><li>www и без www;</li> <li>со слешем на конце или без;</li> <li>фиды от RSS;</li> <li>Урлы с параметрами, не меняющие контент;</li> <li>аттачи (прикрепленные файлы);</li> <li>товары, доступные по разным URL (обычно из-за того, что находятся в разных категориях);</li> <li>дубли главной: site.ru/index.php, domen.ru/home.html и так далее;</li> <li>версия для печати (если ссылка на нее есть только в коде);</li> <li>первая страница пагинации. Дело в том, некоторые CMS создают дубли по URL site.ru/category/ и site.ru/category/page/1/ . То есть контент первой страницы пагинации обычно соответствует содержанию категории, но URL у них получаются разные.</li> </ol><h3><span>3. Мета-тег meta name="robots" </span></h3> <p>Когда документ нельзя удалить или перенаправить, в работу должен включаться именно мета-тег meta name="robots", а не столь популярный robots.txt . Эти слова подтверждаются на практике - мой эксперимент , а также в теории (ниже скриншот из справки Google).</p> <p><img src='https://i0.wp.com/sosnovskij.ru/wp-content/uploads/2017/06/meta-robots-google.jpg' align="center" width="100%" loading=lazy></p> <p>Данный метод подходит для страниц:</p> <ol><li>сортировки (по цене, популярности и так далее);</li> <li>пагинации;</li> <li>с параметрами (когда меняется контент);</li> <li>фильтров (в случае, когда они не оформлены "качественным" образом, по типу тегов: выше писал об этом);</li> <li>версии для печати;</li> <li>CMS и дополнений (плагинов, хуков);</li> <li>поиска;</li> <li>профилей пользователей;</li> <li>мобильной версии, расположенных на поддомене.</li> </ol><p>В общем, meta name="robots" должен использоваться во всех случаях, когда страницы не желательны для индекса поисковых систем, но желательны для посетителей. В данном пункте есть 2 уточнения:</p> <p>1) Страницы, в которые добавлен этот мета-тег, не должны быть закрыты от индексации в robots.txt.</p> <p><img src='https://i2.wp.com/sosnovskij.ru/wp-content/uploads/2017/06/noindex-i-robotst-txt.jpg' align="center" width="100%" loading=lazy></p> <p>2) На многих сайтах некоторые материалы доступны только по одному пути. Например, карточки товаров доступны только со страниц пагинаций в категориях (sitemap не в счет). Если использовать стандартный запрещающий код:</p> <blockquote><p><meta name="robots" content="noindex, nofollow"/></p> </blockquote> <p>то поисковому роботу будет сложнее добраться до карточек. Здесь необходимо указывать атрибут follow:</p> <blockquote><p><meta name="robots" content="noindex, follow"/></p> </blockquote> <p>В таком случае поисковый паук не будет включать документ в индекс, но будет ходить по внутренним ссылкам и индексировать контент, находящимся за ними.</p> <h3><span>4. Атрибут rel="canonical" элемента link </span></h3> <p>Если по каким-то причинам использование meta name robots невозможно, то на помощь приходит известный атрибут rel="canonical". Он помогает указать индексирующему роботу основную (каноническую) страницу. Для этого на неканонических документах в рамках тега head необходимо указать следующий код с указанием URL канонического документа.</p> <blockquote><p><link rel="canonical" href="http://site.ru/url-osnovnogo-dokumenta/" /></p> </blockquote> <p>Данный атрибут менее предпочтителен, так как поисковые алгоритмы берут его в расчет в качестве только лишь рекомендательного (поэтому meta name="robots" использовать приоритетнее). Именно поэтому, когда я , они-то появлялись, то пропадали из индекса Яндекса.</p> <p>Атрибут может подойти для запрета индексирования следующих типов страниц:</p> <ol><li>сортировки;</li> <li>имеющие параметры в URL;</li> <li>пагинации (в качестве канонической указывается первая или основная: например, категория);</li> <li>версии для печати.</li> </ol><p><img src='https://i1.wp.com/sosnovskij.ru/wp-content/uploads/2017/06/robots.txt.png' align="center" width="100%" loading=lazy></p> <h3></h3> <p>Ранее самый популярный способ запрета индексации оказался в моем рейтинге лишь на 5-й позиции . Он по-прежнему хорошо работает в Яндекс, но неважно в Google. В силу своей неуниверсальности он и оказался на данной позиции.</p> <p>Что-либо запрещать в robots.txt стоит тогда, когда все предыдущие методики были реализованы, но остался "мусор", который запретить не получилось. Обычно на "закуску" остаются страницы:</p> <ol><li>с параметрами;</li> <li>CMS и плагинов;</li> <li>AMP (только для робота Яндекса до момента его поддержки данного формата);</li> <li>мобильной версии на отдельном поддомене (полный запрет + указание host основного проекта).</li> </ol><h3>6. Ajax </h3> <p>Иногда необходимо закрыть от индексации не всю страницу, а только ее часть. В этом и поможет Ajax. Например, я уже давно закрывал в блоге и</p> <script>document.write("<img style='display:none;' src='//counter.yadro.ru/hit;artfast_after?t44.1;r"+ escape(document.referrer)+((typeof(screen)=="undefined")?"": ";s"+screen.width+"*"+screen.height+"*"+(screen.colorDepth? screen.colorDepth:screen.pixelDepth))+";u"+escape(document.URL)+";h"+escape(document.title.substring(0,150))+ ";"+Math.random()+ "border='0' width='1' height='1' loading=lazy>");</script> </div> </article> <div class="social-buttons"> <a class="social-button social-button-facebook" target="_blank" href="https://www.facebook.com/sharer/sharer.php?u=https%3A%2F%2Fregularshow.ru%2Finternet%2Fkak-zapretit-indeksaciyu-nuzhnyh-stranic.html" data-url="https://regularshow.ru/internet/kak-zapretit-indeksaciyu-nuzhnyh-stranic.html" data-title=" Как запретить индексацию нужных страниц. ">Поделиться на Facebook</a> </div> <div class="sharethrough-container"></div> <div class="recommended-heading-container"> <span class="recommended-heading">Рекомендуем</span> </div> <div class="zergnet-widget"> <div class="zerglayoutcl"> <div class="zergrow"> <div class="zergentity"> <a href="/internet/fizicheskie-ogranicheniya-vychislenii-poisk-alternativy-tranzistoram.html" class="zergimg"> <img src="/uploads/5014f681b7a1e5c138f23ea1ab210c3c.jpg" nopin="true" data-pin-no-hover="true" loading=lazy> </a> <div class="zergheadline"> <a href="/internet/fizicheskie-ogranicheniya-vychislenii-poisk-alternativy-tranzistoram.html" >Поиск альтернативы транзисторам</a> </div> </div> <div class="zergentity"> <a href="/settings/problemy-s-myshyu-periodicheski-mysh-zavisaet-na-ekrane-na-nekotoroe.html" class="zergimg"> <img src="/uploads/372935173a5af08b6fda073d9e981b0e.jpg" nopin="true" data-pin-no-hover="true" loading=lazy> </a> <div class="zergheadline"> <a href="/settings/problemy-s-myshyu-periodicheski-mysh-zavisaet-na-ekrane-na-nekotoroe.html" >Периодически мышь зависает на экране на некоторое время</a> </div> </div> <div class="zergentity"> <a href="/services/kak-podklyuchit-k-kompyuteru-kondensatornyi-mikrofon.html" class="zergimg"> <img src="/uploads/d2c21c9853037e0c1407b9e6908b60b3.jpg" nopin="true" data-pin-no-hover="true" loading=lazy> </a> <div class="zergheadline"> <a href="/services/kak-podklyuchit-k-kompyuteru-kondensatornyi-mikrofon.html" >Качественный микрофон для компьютера Как подключить студийный микрофон к компу</a> </div> </div> <div class="zergentity"> <a href="/internet/kak-udalit-stranicu-v-open-24-kak-udalit-stranicu-na-mambe.html" class="zergimg"> <img src="/uploads/4d2ec6bd14eb238cf189968c6dfce124.jpg" nopin="true" data-pin-no-hover="true" loading=lazy> </a> <div class="zergheadline"> <a href="/internet/kak-udalit-stranicu-v-open-24-kak-udalit-stranicu-na-mambe.html" >Как удалить страницу на мамбе</a> </div> </div> </div> </div> </div> </div> <div class="tripelift-container"> </div> </div> <aside id="sidebar" style='top:90px!important;;left:70%!important;'> </aside> </div> </main> <script src="/assets/nav.js"></script> <script> jQuery(document).ready(function() { var isTablet = jQuery("#is-tablet").is(":visible"); var isMobile = jQuery("#is-mobile").is(":visible"); if (isMobile || isTablet || jQuery(".nav-opener:visible").length > 0) { initMobileNav(); } }); </script> <script> jQuery("#search-btn").click(function() { jQuery(".search-box").addClass("searching").width( jQuery("#header .nav-holder").width() - jQuery("#social-nav").width() ); setTimeout(function() { jQuery(".search-box input").width( jQuery("#header .nav-holder").width() - jQuery("#social-nav").width() - 150 ).focus(); }, 600); }); jQuery("#search-close").click(function() { jQuery(".search-box").removeClass("searching").css({ width: "" }) }); </script> <footer id="footer"> <div class="mobile-ad-placeholder footer-ad" data-ad-height="any" data-ad-width="any" data-ad-pos="footer"></div> <div class="holder"> <div id="footer-bottom"> <p><a href="/feedback.html">Контакты</a></p> <p>© 2024 / Все права защищены</p> <img src="/images/logo.png" alt="Сайт о цифровых услугах и сервисах" loading=lazy> <script type="text/javascript"> document.write("<a href='//www.liveinternet.ru/click' "+ "target=_blank><img src='//counter.yadro.ru/hit?t50.6;r"+ escape(document.referrer)+((typeof(screen)=="undefined")?"": ";s"+screen.width+"*"+screen.height+"*"+(screen.colorDepth? screen.colorDepth:screen.pixelDepth))+";u"+escape(document.URL)+ ";"+Math.random()+ "' alt='' title='LiveInternet' "+ "border='0' width='31' height='31' loading=lazy><\/a>") </script> </div> </div> </footer> </div> </div> </body> </html>