https://new-tel.net/uslugi/call-password/
http://smsc.ru/tariffs/
https://online.bizon365.ru/room/2240/dm-winner
https://habrahabr.ru/post/245595/
https://www.regular-expressions.info/posixbrackets.html

Заголовок 1

Заголовок 2

Заголовок 3

Заголовок 4

Заголовок 5
Заголовок 6
Здесь находится текст статьи!
вторая строка текста для теста.

Съешь ещё этих мягких французских булок, да выпей чаю. 1234567890

Первичная оптимизация сайта. Что обычно делают оптимизаторы? Как правило, они оптимизируют только целевые страницы сайта, на которые должен идти трафик по конкретным запросам, и забывает об остальных страницах, которые хоть и на втором плане, но играют роль. Необходимо смотреть на весь сайт целиком, а не на отдельные страницы, ведь именно так и поступают поисковые системы, им интересна каждая ваша страница. Исходя из выше сказанного, понятно, что на сайт нужно смотреть глазами поисковых роботов (благо для этого хватает ресурсов), и чтобы боты не видели погрешностей, желательно вылизывать каждую страницу, хотя бы при первичной оптимизации. Что же такое первичная оптимизация? Своими словами скажу, что это комплекс мер по поисковой оптимизации применяемый ко всем страницам сайта поверхностно. Т.е. чтобы все страницы имели божеский вид, желательно пройтись по ним первичной оптимизацией, а уже потом конкретно вылизывать отдельные страницы, что вам нужны.

Так, в отношении чего и как же необходимо проводить первичную оптимизацию? 1. Title, Description, Keywords Эти три мета-тега (первый правда нет, но все же) конечно же должен быть уникальными совершенно у всех страниц вашего ресурса и быть наиболее релевантными с содержимым этих страниц. Сделать их уникальными можно двумя способами: если сайт небольшой или статичный (типа сайта-визитки), то можно пройтись по ним вручную, приводя каждый к необходимому содержанию, а если это сайт большой и динамический, на котором постоянно появляются новые страницы, то тут лучше организовать автоматическую генерацию, благо сейчас в этом нет большой проблемы. Основные правила при составлении содержимого для этих тегов не так сложны: он обязательно должен быть уникальным в рамках конкретного сайта, самые главные ключевые фразы (слова) необходимо помещать в начало Title, а делаем их, желательно, не более 10-12 слов, а то поисковики могут его принять за спам. 2. Заголовки H1-H6 В первую очередь порядок заголовков должен быть последовательный: H1, H2, H3, H4, H5, H6. При этом заголовок H1 должен встречаться только один раз на странице и чем меньше слов в заголовке, тем больший вес передается ключевой фразе, поэтому в H1 пишется только самая частотная и четкая фраза. 3. Карта сайта Для улучшения индексации сайта рекомендуется генерировать карту сайта, как HTML, так и XML форматах. На HTML-карту сайта лучше всего поставить несколько внешних ссылок, чтобы у нее был вес, который она отдавала внутренним страницам – помогает росту трафика по низко частотным запросам. 4. Отсутствующие документы и битые ссылки Для предотвращения дополнительных ошибок в поисковиках необходимо проверить сайт на битые ссылки и отсутствующие документы. Для этого удобно использовать программу XENU. Она отдает очень удобный формат отчета по некорректным ссылкам. И кроме того, позволяет генерировать карту сайта (что по прошлому пункту очень актуально). 5. Валидный HTML, CSS и RSS Так же нужно проверять сайт на валидный HTML, CSS и RSS. Валидация необходима, чтобы поисковики не воротили нос от вашего ресурса. В противном случаи, коряво оформленные сайты, с кривым HTML, ПС будут опускать в результатах выдачи. Для проверки на валидность есть замечательный ресурс http://validator.w3.org/. Очень его рекомендую, т.к. на нем можно проверить на валидность все что угодно. 6. JavaScript и Flash анимации Для лучшей индексации использование JS и Flash лучше всего сократить до минимума. Но бывается без JS не обойтись и тогда их нужно выносить в отдельный файл, а не держать их в теле странички. Во-первых, JS не индексируют поисковые системы (ну или это делается очень напряжно), поэтому нужно его составлять так, чтобы в коде страницы важные фрагменты были в виде HTML-кода. Кроме того, хоть поисковые системы и научились индексировать Flash, все равно это не такая индексация, как обычного текста или html. Поэтому лучше всего избегать Flash-приложений, а если они есть и там присутствуют ссылки на важные разделы – необходимо их продублировать где-то еще и в HTML-виде. 7. Абсолютные и относительные ссылки На все свои основные и целевые странички ставим только абсолютные внутренние ссылки. Исходящие ссылки с этих страниц должны быть относительными, чтобы внутренний вес страницы не растрачивался, а накапливался. Но в отношении внешних ссылок вообще все поступают по разному. Если делать dofollow блог (т.е. с прямыми внешними ссылками), то тогда есть шанс привлечь читателей которые будут отписываться в комментариях, чтобы получить внешнюю ссылку на свой проект, но в то же время с вашего проекта будет утекать вес страниц, где эти ссылки стоят. Вот так и обстоят дела, осталось Вам решить, что вам важнее — посещаемость или вес страниц! 8. Паразитные счетчики Необходимо избегать большого количества разного рода счетчиков на вашем сайте. Почему? Просто, как правило, счетчик это внешняя ссылка, а чем это грозит мы уже знаем. Если Вы все таки хотите его поставить, то нужно подумать, действительно ли Вы получите какой-то весомый эффект для сайта? Например статистика li.ru будет работать, если поставить только код счетчика и убрать ссылку на сервис. По этой логике можно максимально избавиться от внешних исходящих ссылок сайта, чтобы вес страниц сохранялся. 9. Навигационная линейка Очень полезный инструмент, как для пользователя, так и для поисковой системы, которая будет понимать правильный адрес к конкретной страничке и правильно определять ее уровень вложенности. Так что необходимо уделить один раз время решению данной проблем, чтобы потом быть себе благодарным за быструю индексацию. 10. Похожий материал Всегда для лучшей внутренней перелинковки будет полезно выводить похожие материалы. Да, к тому же это поможет удержать читателя на вашем блоге, если он будет переходить по интересующим его постам, а это значит, что похожие посты должны быть РЕАЛЬНО похожи! Если это интернет-магазин – схожие товары (притом по разным свойствам, можно по цене, можно по типу товара), блог – схожие по смыслу посты, каталог статей – ссылки на статьи из тех же категорий. 11. robots.txt На файл robots.txt необходимо обратить особое внимание и главное очень правильно его составить. Необходимо случайно не закрыть важные разделы сайта. А к закрытию рекомендуются: сортировки, страницу авторизации/регистрации, профили, опросы/голосования, внутренние каталоги, на которые могут проскользнуть ссылки, все разделы, предназначенные только для пользователя и все ветки сайта, которые дублируют и созданы только дял удобства и т.д. Выполнение всех этих рекомендаций в обязательном порядке для каждой страницы сайты, вам и вашему проекту в худшем случаи пойдут только на пользу. Тем более, что это не так уж и не сложно. Так что не подкачайте! Удачной оптимизации, и, да, прибудет с вами сила!