Дима
05.12.2017 в
13:41
Привет. 5 лайф-хаков которые используешь на работе )?
Олег Саламаха
26.12.2017 в
09:00
Учитесь новому, возможность роста есть всегда. Главное найти то, что интересно и приносит профит.
Отдыхайте на выходных.
Если не справляетесь, берите помощника.
Разговаривайте с другими людьми: с коллегами, с подчиненными, с коллегами по рынку. Всегда все могут договориться и узнать что-то новое.
Не используйте лайфхаки в работе :)
Игнат
05.12.2017 в
14:00
Если у акцептора "А" есть 10 доноров и все имеют ссылки с одним и тем же анкором. Это хуже для SEO чем если бы доноры имели разные анкоры? Почему?
Речь идет исключительно об OnPage SEO
Олег Саламаха
26.12.2017 в
09:01
Разные анкоры разбавят внутренний анкор-лист, но делать это стоит осторожно, чтобы не было похоже на спам. С другой стороны особой прибавки к ранжированию данная манипуляция не даст.
Максим
05.12.2017 в
14:07
На сайте встречает 307 код ответа сервера, что это за зверь? Нужно париться и переделывать его на 302 или 301?
Олег Саламаха
26.12.2017 в
09:03
Это аналог 302 с единственным отличием: 307 гарантирует, что метод и тело не будут изменены при выполнении перенаправленного запроса. 302 при определенных условиях может неправильно передать некоторые методы.
Оксана
05.12.2017 в
14:10
Здравствуйте Олег. У Вас есть опыт связывания мобильного приложения и сайта? Если да, то какими инструментами для проверки пользовались, есть ли что годное почитать на эту тему, кроме официальной справки гугл?
Олег Саламаха
26.12.2017 в
09:04
Нет, поэтому могу порекомендовать только
справку Гугл
Олег
05.12.2017 в
14:28
Вопрос по OnPage SEO
Карточка товара в интернет магазине. На ней несколько блоков перелинковки (похожие товары, ТОП-селлеры данного бренда и т.д)
Перелинковка организована рандомно. Зашел на страницу - в этих блоках 20 ссылок на одни товары. Обновил - 20 ссылок уже на другие товары.
Считаем, что для индексации это неплохо. Гугл бот проходит по разным ссылкам каждый раз, сканирует больше разных страниц за заход и т.д.
НО! Плохо ли для ранжирования таких страниц?
Если смотреть по коду, то эти 20 ссылок (с картинками, прописанными альтами) составляют немалую долю всего HTML контента страницы. Особенно если у товара скудное описание.
И получается, что гугл бот когда сканирует такую страницу видит каждый раз чуть иной контент.
Как быть? Выводить такие блоки скриптом? Чтобы для пользователя они были, а гугл их не видел? И забить на такую товарную перелинковку в карточках?
Или все норм?
Сразу говорю, что отключить рандом и для каждой карточки товара выводить фиксированные ссылки на другие товары - не вариант.
Как быть с учетом того, что у нас в этих блоках всегда рандом?
Олег Саламаха
26.12.2017 в
09:05
Все нормально, если есть трафик из ПС на карточки. Если нет, рекомендую подумать над контентом. Хотя бы начать с самых популярных товаров. Блок с ссылками убирать не стоит, в ранжирование минус он не даст.
Валентин
05.12.2017 в
16:07
Как продвигать небольшой интернет-каталог с эксклюзивными товарами (офиц. поставщик) в большой и конкурентной тематике (например, обои)?
О товарах по названиям никто не знает, а по ключевым словами категорий (например: обои для стен, бумажные обои) продвигаться похоже что маловероятно.
Олег Саламаха
26.12.2017 в
09:06
Это одна из сложных задач в маркетинге и никак не касается seo. Речь идет о формировании спроса. Поищите что-то на данную тематику.
Денис
05.12.2017 в
17:15
Кластеризация. Говорили, что у вас топ, но по факту не вижу разницы с другими кластеризаторами. Улучшиться ли работа инструмента? Конкретно сейчас вопрос к тому что в одну группу кластеров тянет фразы, которые надо бы в другую группу отнести.
Олег Саламаха
26.12.2017 в
09:06
Постоянно дорабатываем. Сейчас кластеризация Serpstat лучшее, что есть на рынке, так как учитывается много факторов в процессе разбивки фраз на кластеры. Если группировка сработала неправильно, напишите в саппорт. Постараемся исправить и объяснить, почему так произошло.
Юлия
06.12.2017 в
09:48
Добрый день,
1. Расскажите пожалуйста при разработке структуры сайте необходима ли экспертиза SEO?
2. Какие инструменты, методику, анализ использовать при выходе на Западный рынок украинской аутсорсинговой компании?
3. Нужен ли full cycle software development на рынке США?
Олег Саламаха
26.12.2017 в
09:07
1. Я думаю, что да, так как уже на этом этапе можно заложить фундамент для того, чтобы получать хороший трафик.
2. Нужно исследовать локальных конкурентов, ведь именно с ними вам придется конкурировать, а не с соседним аутсорсом.
3. На самом деле это тема для отдельной статьи.
Ну конечно нужен. Нужен ли аутсорс с полным циклом разработки? Да. Потому что есть примеры успешных компаний, которые занимаются этим. Дорого, сложно, долго, но можно выходить в США с этой услугой.
Игорь Рудник
06.12.2017 в
14:53
Есть ли у вас в команде человек/отдел/партнер, который занимается платными каналами трафика? Контекст, медийка, баннерные сети и т.д.
Олег Саламаха
26.12.2017 в
09:08
Да, есть отдельный человек по платному трафику, но его работа идет во взаимосвязи с отделом маркетинга.
Макс
06.12.2017 в
16:10
Лайфхакам для рутины SEO-специалиста - например?
Олег Саламаха
26.12.2017 в
09:10
1. Когда появляется рутина — наймите помощника.
2. Научитесь писать элементарные скрипты на питоне. Потраченный месяц на обучение вернется очень быстро в виде профита.
Кирилл
06.12.2017 в
16:44
Олег, здравствуйте!
Столкнулись с такой проблемой, что после оптимизации сайта 2 поисковые системы (Google и Яндекс) по-разному ранжируют наш сайт. Google ставит в сниппет наши description, страницы поднимаются в поиске, все хорошо. Яндекс же, наоборот, не только не устроило наше описание, но и вообще выкинул сайт из первой страницы. Как лучше поступить: делать акцент на одной поисковой системе или находить баланс между двумя поисковиками?
Спасибо!
Олег Саламаха
26.12.2017 в
09:11
Конечно же, лучше находить баланс и главное — это выяснить, почему в Яндексе просели позиции, так как в дальнейшем это может произойти и в Google.
Алена
06.12.2017 в
16:50
Дано: сайт https://autobooking.com, бизнес работает уже в 4 странах, еще + 5 запустятся в 2018. Домен один. Продвижением каждая страна занимается самостоятельно (через агентства). В случае фильтра, его получит весь сайт и пострадают бизнесы во всех странах.
Вопрос: как максимально обезопаситься? Какие правила нужно прописать для всех стран или что лучше сделать?
Спасибо!
Олег Саламаха
26.12.2017 в
09:13
Должны быть разные контакты во всех странах, как минимум. Сайты не должны дублировать контент.
Антон
06.12.2017 в
17:36
На домен одним днем поставлена 441 ссылка из сквозных элементов с 44х доменов. ТИЦ вырос с 0 до 30 и возможно ещё подрастет. Сами ссылки по чектрасту низкого качества. Как их снять и не потерять в позициях. Замещение вечными не дёшево. Доступа к аккаунту ссылок нет можно только снять одним резким движением прекратив их невыгодную оплату. Спасибо.
Олег Саламаха
26.12.2017 в
09:13
Я бы снял все ссылки. ТИЦ никак не покажет вам качество, забудьте про этот показатель раз и навсегда. Если ссылки низкого качества, то снимайте и не бойтесь. Работайте над нормальным ссылочным.
Дмитрий
06.12.2017 в
18:05
Как же вы достали со своим серп статом. Кучка наивных стартаперов - брейк ивенщиков.
Олег Саламаха
26.12.2017 в
09:14
Тут должно быть видео, где я с вейпом на гироскутере! :)
Ольга
07.12.2017 в
07:47
Здравствуйте! Почему в Серпстат из регионов Яндекса есть только Москва и СПб? В регионах так-то тоже сео занимаются, и ваш сервис мог бы быть интересен.
Олег Саламаха
26.12.2017 в
09:15
Два региона, потому что они самые большие. Но я обещаю, что в 2018 году выйдет очень много новых регионов Яндекс.
Ольга
07.12.2017 в
08:05
Здравствуйте, Олег.
Вопрос по текстам. Ориентация на Яндекс. Регионы по Сибири.
При анализе всех проектов по всем ключевым фразам вижу, что:
- выдача Яндекса сильно отличается от того, о чем они говорят и пишут: как были сео-тексты, так и встречаются, спама - море бывает, неестественные вхождения есть, даже жирным ключи кое-где выделяют, местами даже почти бессвязным перечнем кидают и ничего - в топе ли 20-ке.
- топ по каждой фразе бывает слишком разношерстный: где вообще нет текста, где простыня на 10 тыс. без пробелов; где тошнота зашкаливает, где выглядит естественно; где содержание хорошее, где сплошная вода о современном мире или даже не соответствие интенту - а в топе.
Стараюсь делать тексты полезными, отвечающими на запрос, без спама и неестественности, но почти всегда находятся корявые спамные сайты, которые то там, то тут обходят. Понятно, причины могут быть в других факторах, но все же, как в таких условиях адекватно анализировать тексты и составлять ТЗ на копирайтинг?
Олег Саламаха
26.12.2017 в
09:16
По поводу того, что говорят и пишут ситуация следующая: есть набор факторов, которые влияют на топ, попадают ли сайты в выдачу или нет. Нельзя просто копировать поведение других, нужно всегда придерживаться какой-то методики. Все рекомендуют сделать так, чтобы не навредить вашему сайту. Соответственно это касается текстов и выделения жирным.
Если у сайта есть траст, он старый, множество хороших бэков и он разместил seo-текст с жирным выделением, то для него ничего плохого может не произойти. Но если бы это сделал молодой сайт, то можно получить фильтр и прочее. Не для всех всё одинаково работает. Есть множество факторов, который тянут вверх или вниз сайт.
Во-вторых, вы не можете наверняка узнать: тянет ли вниз или вверх данный текст сайт. Сайт может быть в топе, при этом понижающие факторы могут быть из-за текста. Вы про это никогда не узнаете.
Опять же вторая часть вопроса заключается в том, что всегда есть сайты, которые будут в топе. Я рекомендую подход, который мы используем в нашем текстовом анализаторе: не смотреть и не анализировать вообще сайты в “красных зонах”, которые попадают или в сильный плюс, или в минус. Просто выбрасываете вручную или автоматом сайты без текста/с большими текстами. Анализируйте только “золотую середину”.
Ольга
07.12.2017 в
10:04
День добрый! За последние год-два Яндекс и Гугл что-нить неприятное придумал? Какие порталы используете для того, чтобы отслеживать свежие тенденции развития SEO?
Олег Саламаха
26.12.2017 в
09:17
Все изменения, вводимые ПС, не являются публичными, а те, о которых говорят — это только крупные изменения в поисковом алгоритме.
ОК
07.12.2017 в
10:07
В Гугле все хорошо,а вот в Яндексе провал провальский. Никаких фильтров нет. В чем может быть причина?
Олег Саламаха
26.12.2017 в
09:18
Скорее всего что-то не так или со ссылками, или с текстом. В первую очередь, грешу всегда на эти два фактора, если с Гуглом всё окей. Проверьте тексты, проверьте еще раз внимательно на фильтры. Если Яндекс ничего не написал вам по поводу фильтров, еще не значит, что их нет.
Александр
08.12.2017 в
00:30
Хотелось бы узнать Ваше мнение на счет того, какие рутинные процессы в продвижении сайта сегодня реально автоматизировать без потери качества в результате, а какие до сих пор требуют ручной работы специалиста и в ближайшее время вряд ли будут автоматизированы?
Также вопрос на счет Serpstat, а именно на счет инструмента "Анализ ссылок". В плане точности (количеству доменов и бэклинков), а также скорости обнаружения ссылок он пока сильно уступает Ahrefs'у. Будет ли в ближайшее время улучшаться работа данного инструмента и выйдет ли он на уровень вышеупомянутого сервиса в плане анализа ссылочной массы сайта?
Олег Саламаха
26.12.2017 в
09:19
По сути весь аудит можно автоматизировать: находить ошибки, проводить регулярный аудит. Есть вещи, которые до сих пор сложно автоматизировать — это подбор семантики. Сейчас мы кое-что делаем в этом направлении. Надеюсь, в ближайшем будущем анонсируем.
По ссылкам всё произошло наоборот. Когда-то была Сапа, где все покупалось в авторежиме. Сейчас больше внимания на крауд-маркетинг и ручную добычу ссылок.
Насчет Serpstat: да, скорость обнаружения ссылок пока немного уступает Ahrefs, но будет улучшаться. У нас запланировано много изменений по интерфейсу и ссылочному профилю. Вы увидите их в первом квартале.
Гость-зануда
11.12.2017 в
14:08
Олег, привет! Ты веришь, что сотрудники могут эффективно работать удаленно? И есть ли какие-то инструменты/сервисы/методы, чтобы их контролировать?
Олег Саламаха
26.12.2017 в
09:20
Очень сильно зависит от того, что делают сотрудники, какая у них профессия. Но в целом: скорее нет, чем да. Я верю, что может работать вся команда удалённо, то есть когда команда сидит в офисе, но работает удаленно. Это эффективно и можно контролировать.
Методик контроля много, но прежде всего разберитесь: вам нужно выполнение задач или контроль. Если команда в целом справляется со своими задачами и делает это правильно, то собственно всё хорошо. Если нет, то тогда нужно искать проблему.
Есть стандартные методы как Scrum с ежедневными митингами, встречами, где обсуждаются плюсы и минусы спринта. Этот метод можно использовать и для удаленных сотрудников.
Мария
11.12.2017 в
14:21
Какие современные фишки есть при создании нового сайта, чтобы в дальнейшем избежать проблем с продвижением?
Олег Саламаха
26.12.2017 в
09:21
На самом деле при создании нового сайта нужно обратить внимание на аудит для того, чтобы его повторно не делать после создания. То есть изначально нужно сделать оптимизированный сайт.
Из самого современного: сразу ставьте на сайт https, смотрите в сторону http2. Оптимизируйте скорость и делайте мобильную версию. Ничего сверхнового, но если это сделаете, все будет окей.
Андрей
11.12.2017 в
14:23
Здравствуйте!
Подскажите, как понравиться сразу и ПС Яндекс и Google? А то результаты либо там, либо там.
Олег Саламаха
26.12.2017 в
09:22
Всё очень просто. Нужно как минимум делать стандартный аудит сайта для Яндекс или Гугл. Стратегию продвижения с точки зрения антиспама нужно строить больше под Яндекс, так как он жёстче в русскоязычном сегменте.
Если с Яндексом по антиспаму все хорошо, то, скорее всего, в Гугл тоже будет ок.
Константин
11.12.2017 в
14:24
Какие ТОП проблем вы решили при оптимизации процесса коммуникации между разными департаментами в компании?
На что обратить внимание?
Олег Саламаха
26.12.2017 в
09:23
Решили проблему взаимодействия между департаментами с помощью workflow между разными подразделениями внутри компании.
Мария
11.12.2017 в
14:27
Как за максимально короткий срок получить органический трафик из ПС?
Какие ТОП мест на которые обратить внимание и над чем поработать?
Олег Саламаха
26.12.2017 в
09:24
Если сайт идеальный с технической точки зрения и аудит уже сделан, тогда работайте с запросами, которые ближе всего к топ 10.