SEO hive

Description
Канал про SEO и бизнес-идеи, которые удалось добыть из базы самых дорогих доменов, уходящих с аукционов.

А также, про SEO-кейсы и аналитику, которые меня заинтересовали)

Автор: @AlexanderRahmanin
Advertising
We recommend to visit

Здесь простым языком про TON, DFC и крипту.

Принимаем автоматически.
Ссылка для друзей: https://t.me/+-EOfWx2pRKhmNGE6
Связь: @deftalk_bot

Last updated 4 days, 19 hours ago

Канал для поиска исполнителей для разных задач и организации мини конкурсов

Last updated 2 weeks ago

HAYZON
HAYZON
4,450,639 @hayzonn

💼 How to create capital and increase it using cryptocurrency

👤 𝐅𝐨𝐮𝐧𝐝𝐞𝐫: @Tg_Syprion
🗓 ᴀᴅᴠᴇʀᴛɪsɪɴɢ: @SEO_Fam
⭐️ 𝐎𝐧𝐞 𝐋𝐨𝐯𝐞: @major
🍀 𝐌𝐲 𝐜𝐡𝐚𝐧𝐧𝐞𝐥𝐬: @kriptofo @tonfo
@geekstonmedia

Купить рекламу: https://telega.in/c/hayzonn

Last updated 19 hours ago

1 month, 1 week ago
SEO hive
2 months, 1 week ago

🔥Создание PBN с помощью chatGPT
🌐Хоть PBN и расшифровывается как Private Blog Network, я часто разворачиваю небольшие статичные сайты-калькуляторы, чтобы с них ставить ссылки 🔗

🤖Сейчас благодаря скорости chatGPT 4o, можно верстать небольшие сайты с рабочим функционалом и на нескольких языках.

💡Делюсь с вами примером генерации калькулятора для фотометрии.
🔗Ссылка на промт.
Промт выглядит сложным, но он довольно шаблонный, а что-то можно просто сгенерить. Например, ТЗ по дизайну и цветам я попросил написать chatGPT.

1️⃣Сначала chatGPT выдаст структуру сайта. По этой структуре нейронка сделает ссылки и подключит стили и скрипты в верстке. Эту структуру вам нужно будет повторить на сервере, разложив файлы по папкам.

2️⃣Далее GPT генерирует css, js и английскую верстку. Я специально разделил промт на несколько запросов, чтобы chatGPT успевал его выполнять 🏃‍♂️

3️⃣Потом просто по очереди генерим остальные языки

4️⃣Остается только создать файлы на сервере и скопировать в них полученный код.

💃В результате получился вот такой сайт 📹
Он простой и статичный, но зато с работающим функционалом, несколькими языковыми версиями и техническими станицами всего за 15 минут 😱

🤚Если вам интересно, ставьте лайки и я расскажу подробнее про такие PBN 😉

3 months ago

Слив внутренней инженерной документации Google Search API - часть 3

По сливу читайте предыдущие посты по хештегу #слив 😉

Еще факты:
1. Эта утечка не вырвана из контекста, не устарела и не является неполной информацией.

  1. Navboost, основанный на данных о кликах, чрезвычайно важный фактор ранжирования в поиске, и теперь благодаря этой утечке мы знаем, что это исходит от Chrome.

  2. Существуют токсичные обратные ссылки, с документами связана функция badbacklinksPenalized.

  3. Есть штрафной вызов за плохие обратные ссылки.

  4. Google может ограничивать количество сайтов определенного типа, появляющихся в результатах.

  5. Слова или фразы, которые ассоциируются с объектом могут повлиять на рейтинг в поисковых системах так же, как это делают ссылки (сразу вспоминается кейс от Михаила Шакина, где он говорил, что гостевой пост с брендом, но без ссылки показал хороший результат).

  6. Существует оценка соответствия заголовка для сайта, а не только для отдельных страниц.

  7. Соответствие заголовка страницы — важный фактор.

  8. Google может указать ограничение результатов для каждого типа контента. Другими словами, они могут указать только количество X сообщений в блогах или количество Y новостных статей, которые могут появиться для данной поисковой выдачи.

  9. Модуль QualityTravelGoodSitesData имеет функции, которые идентифицируют и оценивают туристические сайты, предположительно, чтобы дать им преимущество перед неофициальными сайтами.

  10. Google определяет, какой контент можно или нельзя использовать из Knowledge Graph с LLM.

  11. Возможно, Google с помощью LLM для прогнозирования тему видео.

  12. Google пытается определить количество усилий, затрачиваемых при создании контента. Основываясь на определении, мы не знаем, оценивается ли LLM таким образом весь контент или это просто контент, который, как они подозревают, создан с использованием генеративного ИИ.

  13. Значимость обновления страницы влияет на то, как часто страница сканируется и потенциально индексируется. Раньше вы могли просто изменить даты на своей странице, и это сигнализировало Google о ее свежести, но Google ожидает более значительных обновлений на странице.

  14. В модуле блога BlogPerDocData есть подражатель без определения, но привязанный к docQualityScore, скорее всего, это мера дублирования сообщений в блогах.

  15. Механизм выборки робота Googlebot способен выполнять не только запросы GET. В документации указано, что он также может выполнять запросы POST, PUT или PATCH.

  16. Google определяет, насколько коммерческая страница.

  17. Успехом также считается поиск, при котором происходит клик и пользователь проводит на странице 5 минут, прежде чем вернуться в Google.

  18. Ценность ссылок выше на страницах, которые имеют более высокий приоритет в индексе.

  19. Twiddlers — это алгоритмы переоценки, которые работают между крупными обновлениями и сменой рейтинга в поисковой выдаче.

  20. Чрезмерно оптимизированный якорный текст, особенно если он постоянно используется для ссылок на ваш сайт со стороны третьих лиц, похоже, вызывает спам-понижение этих ссылок.

  21. Плохая навигация и домены с точным соответствием могут снизить ваш рейтинг.

  22. У Google есть показатель наполнения ключевыми словами.

  23. Google отслеживает срок действия доменов, поэтому они либо уже могут, либо скоро смогут обнаружить злоупотребления в отношении просроченных доменов.

  24. Нет четкого упоминания внутренних ссылок как атрибута.

Источники:
1. https://sparktoro.com/blog/11-min-video-the-google-api-leak-should-change-how-marketers-and-publishers-do-seo/

  1. https://searchengineland.com/how-seo-moves-forward-google-leak-442749

  2. https://sheknowsseo.co/google-search-algorithm-leak/

Как надо SEO +шить не надо 🔥
#google #слив

3 months, 1 week ago

Про сам слив можно подробнее тут почитать

3 months, 1 week ago

Слив внутренней инженерной документации Google Search API - часть 2

Алгоритмы из слива:
1. Trawler – система сканирования веб-страниц. Он имеет очередь сканирования , поддерживает скорость сканирования и понимает, как часто меняются страницы.

  1. Alexandria – основная система индексации.

  2. SegIndexer – система, которая помещает документы уровней в уровни индекса.

  3. TeraGoogle – вторичная система индексирования документов, которые долго хранятся на диске.

  4. HtmlrenderWebkitHeadless – система рендеринга страниц JavaScript.

  5. LinkExtractor – извлекает ссылки со страниц.

  6. WebMirror – система управления канонизацией и дублированием.

  7. Mustang – основная система подсчета очков, ранжирования и обслуживания.

  8. Ascorer – основной алгоритм ранжирования, который ранжирует страницы перед любыми корректировками повторного ранжирования.

  9. NavBoost – система повторного ранжирования на основе журналов кликов о поведении пользователей.

  10. FreshnessTwiddler – система изменения рейтинга документов на основе свежести.

  11. WebChooserScorer – определяет имена функций, используемые при оценке фрагментов.

  12. Google Web Server (GWS) — это сервер, с которым взаимодействует интерфейс Google. Он получает полезные данные для отображения пользователю.

  13. SuperRoot – это мозг Google Search, который отправляет сообщения на серверы Google и управляет системой постобработки для повторного ранжирования и представления результатов.

  14. SnippetBrain – система, которая генерирует фрагменты результатов.

  15. Glue – система объединения универсальных результатов на основе поведения пользователя.

  16. Cookbook – Система генерации сигналов. Есть указание на то, что значения создаются во время выполнения.

  17. SiteFocusScore – фиксирует, насколько сайт придерживается одной темы.

Источники:
1. https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/

  1. https://ipullrank.com/google-algo-leak

Как надо SEO +шить не надо 🔥
#google #слив

3 months, 1 week ago

Слив внутренней инженерной документации Google Search API - часть 1

Факты из слива:
1. Navboost и использование кликов, CTR, длинные и короткие клики и пользовательские данные.

  1. Использование статистики кликов браузера Chrome для улучшения поиска в Google.

  2. Белые списки сайтов в сфере путешествий, Covid и политики.

  3. Использование отзывов оценщиков качества.

  4. Использование данных о кликах, чтобы определить вес ссылок в рейтинге.

  5. У Google есть функция, которую они вычисляют, под названием «siteAuthority» для оценки сигналов качества, которые хранятся отдельно для каждого документа.

  6. Оказывается, песочница все-таки есть в Google.

  7. Google сохраняет авторов, связанных с документом, система также пытается определить, является ли объект на странице ее автором.

  8. Уровень индексирования влияет на ценность ссылки.

  9. Google использует только последние 20 изменений для данного URL-адреса при анализе ссылок.

  10. PageRank домашней страницы учитывается для всех страниц.

  11. Размер шрифта терминов и ссылок имеет значение.

  12. Данные об отклонении ссылок не связаны с основными системами ранжирования.

  13. Короткий контент оценивается за его оригинальность. Вероятно, поэтому тонкий контент не всегда зависит от длины.

  14. Title по-прежнему оценивается по запросам.

  15. Длинные Title неоптимальны для увеличения количества кликов, но они хороши для повышения рейтинга.

  16. Даты документа очень важны (дата публикации, дата изменения).

  17. Если более 50% страниц сайта содержат видео, сайт считается ориентированным на видео, и к нему будут относиться по-другому.

  18. Существуют документы золотого стандарта.

  19. Your Money Your Life имеет специальную оценку.

  20. Google специально векторизует страницы и сайты и сравнивает встраивания страниц с встраиваниями сайтов, чтобы увидеть, насколько страница не по теме.

  21. У Google есть специальный флаг, который указывает, что сайт является «небольшим персональным сайтом».

  22. SiteFocusScore – фиксирует, насколько сайт придерживается одной темы.

Источники:
1. https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/

  1. https://ipullrank.com/google-algo-leak

Как надо SEO +шить не надо 🔥
#google #слив

5 months, 2 weeks ago

*Как удалить конкурента из поисковой выдачи Яндекс
‼️Данный способы сработают у вас только если конкурент нарушил правила и украл у вас контент или незаконно использует ваш бренд. Поэтому сразу говорю, что название кликбейт 😊*

Но думаю, что многим все равно будет полезно. Потому что часто обращения к доменному регистратору, хостеру и всякие досудебки просто бесполезны. Я расскажу как раз про такой кейс 🧑‍🔬

🤮Недобросовестный конкурент cкопировал дизайн сайта нашего клиента вместе с логотипом и брендом. Купил брендовый домен в зоне com.ru и стал ранжироваться в выдаче Яндекс вместе с нами. По некоторым брендовые запросам ранжировался выше нас 😒

*🥊Как с ним бороться:*1️⃣ Устанавливаем антидетект браузер. Можно взять любой, но мы взяли Dolphin и дальше я буду показывать все на его примере.
2️⃣ Ещё нам понадобится один мобильный прокси. Можно купить самый дешевый тут. У мобильного прокси IP каждые пару минут, поэтому нам хватит одного прокси.
3️⃣ Создаем профиль - Скрин.
4️⃣ Делаем радомный отпечаток - Скрин.
5️⃣ Добавляем купленный прокси - Скрин.
6️⃣ Выбираем разрешение экрана. Берем 1920 × 1080, 1536 × 864 и 1536 × 864. Это популярные десктопные расширения.
7️⃣ Запускаем профиль - Скрин.
8️⃣ Заходи на ya.ru по запросам, где конкурент отбирает у вас трафик. Находим сайт конкурента. Заходим на него и возвращаемся в Яндекс. Нажимаем “сообщить об ошибке”, выбираем одну из жалоб и заполняем ее - Скрин.
9️⃣ После отправки жалобы необходимо будет оставить почту. Можно брать любую, но лучше, чтобы они были похожи на настоящие. Можно генерировать почты тут.
🔟 После того, как оставили заявку закрываем профиль и удаляем его. В следующем профили используем другие комбинации платформы и разрешения экрана. Так же меняем слова в запросе, чтобы не заходить на сайт по одному и тому же ключу.

*📉Результаты
Нам хватило всего 10 жалоб по 1-2 жалобы в день, чтобы удалить конкурента по всем нашим запросам. Вот его график видимости. Через неделю после жалоб сайт просто вылетел по нашим брендовым запросам за ТОП 50
💃*

‼️Еще раз повторю. Хороший сайт так не удалить. Способ направлен против сайтов, которые нарушают правила и нужен только, чтобы достучаться до Яндекса. Если просто писать в Яндекс от своего имени, поддержка отправит вас жаловаться хостеру и регистратору и все. А к пользователям на выдаче, как показывает этот кейс, они прислушиваются 😉

6 months ago

*🏎 Накрутка поведенческих факторов: дорого, сложно, но можно. Если очень хочется 😊*

🎡Моя коллега @annabakalova написала статью, как мы с ней крутили ПФ на внутреннем проекте Вебпрактик. Получился очень полезный кейс. Обязательно прочитайте, если хотите попробовать накрутку 👇

🔗Ссылка на статью

P.S.
В Google сейчас идет большой апдейт. В частности он направлен на борьбу с злоупотреблением Expired-доменами, т.е. с дропами. Я пока мониторю ситуацию и обязательно дам свой коммент.

7 months, 2 weeks ago
We recommend to visit

Здесь простым языком про TON, DFC и крипту.

Принимаем автоматически.
Ссылка для друзей: https://t.me/+-EOfWx2pRKhmNGE6
Связь: @deftalk_bot

Last updated 4 days, 19 hours ago

Канал для поиска исполнителей для разных задач и организации мини конкурсов

Last updated 2 weeks ago

HAYZON
HAYZON
4,450,639 @hayzonn

💼 How to create capital and increase it using cryptocurrency

👤 𝐅𝐨𝐮𝐧𝐝𝐞𝐫: @Tg_Syprion
🗓 ᴀᴅᴠᴇʀᴛɪsɪɴɢ: @SEO_Fam
⭐️ 𝐎𝐧𝐞 𝐋𝐨𝐯𝐞: @major
🍀 𝐌𝐲 𝐜𝐡𝐚𝐧𝐧𝐞𝐥𝐬: @kriptofo @tonfo
@geekstonmedia

Купить рекламу: https://telega.in/c/hayzonn

Last updated 19 hours ago