Книга-инструкция по Яндекс-метрике 2.0: отличия от старой версии, приемы и хитрости использования.
22 июня официально новая Яндекс.Метрика 2.0 выходит из бета версии.
Многие наши клиенты говорят, что не понимают, как пользоваться новой версией и что хотят работать на старой, мол привычно и удобно. Но на самом деле в обновленной версии есть много полезных и нужных инструментов, которые очень пригодятся Вам.
Вам в помощь мы написали специальную книгу-инструкцию по НОВОЙ Яндекс.Метрике, где подробно рассказали, в чем основные отличия старой и новой версий, а также как пользоваться каждым отчетом в новой и какую пользу для бизнеса из этого можно извлечь.
Книга будет интересна для владельцев сайтов, веб-мастеров, веб-технологов и интернет-маркетологов, а также для всех тех, кто имеет дело с интернет-проектами.
Курс «Интернет-маркетолог 3.0: как стать востребованным специалистом, который может всё»
Стоимость: от 4 999 ₽
Как стать сертифицированным специалистом Яндекс Директ
Решили сдать сертификацию и стать сертифицированным специалистом Яндекс Директ? Отлично, тогда скорее читайте статью. В ней мы расскажем, как подготовиться к экзамену, какие могут возникнуть сложности при сдаче и какие преимущества дает сертификация Яндекс Директ.
Что такое карта релевантности и как составить ее правильно
Продвижение сайта по всем правилам начинается с составления карты релевантности – основного проектного документа. Этот документ составляется перед началом всех работ. Включает в себя слова из разработанного семантического ядра с указанием разной частотности, теги title и description, заголовки H1. О том, как правильно составить карту релевантности, читайте в нашей статье.
Под какие санкции можно попасть за некачественный SERM
Казалось бы, что при работе с SERM все просто и понятно: сиди, ищи о себе отзывы, отвечай на них, проси клиентов распространять их везде максимально и радуйся. Но не все так просто. Какие ошибки чаще всего допускают компании и на что можно нарваться за некачественный SERM?
Настройка robots.txt: что на сайте стоит спрятать от робота?
Файл robots.txt представляет собой набор директив (набор правил для роботов), с помощью которых можно запретить или разрешить индексирование поисковым роботам определенных разделов и файлов вашего сайта, а также сообщить дополнительные сведения.
Подпишитесь на Email-рассылку. Делимся опытом 20+ лет.
Раз в неделю получайте свежие статьи, советы, информацию для владельцев бизнеса, SEO-специалистов и маркетологов.
Подпишитесь, чтобы получать свежие новости, классные предложения, напоминания о старте занятий и многое-многое другое