Работа со злонамеренным спамом - практика из семальта

Боты не имеют лучшего послужного списка. Они быстрые и опережают количество посетителей сайта. Майкл Браун, менеджер по работе с клиентами компании Semalt , предупреждает, что боты легко находят уязвимые сайты, намереваясь атаковать их, рассылать спам-комментарии и вызывать путаницу в системах отчетов о трафике. Приток вредоносных рефералов становится серьезной проблемой, и тенденции Google показывают, что проблема возрастает в геометрической прогрессии.

Googlebot - хороший бот

Основная цель бота - автоматизировать задачи и замаскировать себя как посетителя. Они очищают исходные коды, собирают данные и выполняют функции в ответ на найденное. Однако, хотя это звучит злобно, не все так плохо. Бот Google сообщает о своем присутствии пользователям и помогает помещать сайты в очередь на выдаче. Некоторые боты используют это преимущество и работают с использованием ложных агентских строк, создавая впечатление, что они происходят от этого бота.

Плохие боты и реферальный спам

Плохие боты плагиатируют контент веб-сайта, крадут информацию о пользователях, мошеннические клики на легальной рекламе и портят отчеты, созданные Google Analytics. Последний пункт в этом списке имеет много последствий для веб-сайта. Это связано с различными вредоносными приложениями реферального спама. Например, они искажают данные о трафике от создаваемой ими инфляции, заставляют пользователей посещать сайты, которые появляются в отчетах Google Analytics, что позволяет им создавать обратные ссылки. Так как они скрыты как законный трафик, им удается скрыть рекомендателей.

Спам рефералов имеет 100% отказов и ограниченное время на странице, что приводит к перекосу данных в отчетах. Следовательно, конечный продукт этих отчетов в основном недействителен. С годами боты стали более изощренными.

ботнеты

Хакеры используют бот-сети для выполнения сложных атак. Ботнет - это сеть роботов, которые затрудняют отслеживание и внесение в черный список IP-адресов. Защитить веб-сайт становится сложно, когда они используют Распределенный отказ в обслуживании. Когда один выкорчевывает или блокирует один, несколько других растут на месте.

Призрачные Рефералы

Большинство веб-сайтов в настоящее время имеют жестко запрограммированный код Google Analytics. Реферальные боты могут вычеркнуть уникальный код UA из исходного кода и использовать его для отслеживания сайта. С этого момента становится возможным отправлять информацию в ГА без необходимости посещения. Они используют протокол измерений Google Analytics, который не различает любые данные, поступающие к нему.

Остановка Призрачного Спама Реферала

Пользователи могут игнорировать призрачных рефералов и восстанавливать целостность данных, используемых в отчетах о трафике. Фильтр имени хоста - один из способов, так как он гарантирует, что он принимает во внимание только информацию с действительных веб-сайтов. С такой мерой все призрачные рефералы в дальнейшем не отражаются в аналитическом отчете. Это не постоянное решение, так как хакеры узнают о введенных контрмерах.

Блокировка обычного реферального спама

В большинстве случаев веб-сайты сообщают об активности автоматическими ботами на своем сайте. Они более управляемы, используя традиционные методы блокировки спама. Если вы решите использовать Google Analytics, процесс может быть длительным и исчерпывающим. Программа автоматической блокировки - это брандмауэр Sucuri Website Firewall с возможностью настройки пользовательских правил по выбору пользователя.

Вывод

21-й век поднял вопрос о многоуровневой безопасности. Иногда раздражает необходимость иметь дело со спамом. Тем не менее, люди должны начать привыкать принимать меры, чтобы гарантировать, что они защищают свои данные всеми средствами.