Прочитав заметку о начало моей борьбы с роботами , многие предлагали использовать стандартные инструменты, такие как капча или поля ввода, скрытые свойствами CSS. Были и нестандартные опции, такие как распознавание визуальных образов (на картинке кот или собака?), анализ движения мыши по странице перед отправкой комментария или путаница в названиях полей.
Некоторые из этих методов мне нравятся, некоторые нет. Скажем, несмотря на эффективность фильтрации спама с помощью капчи, ее использование мне кажется нецелесообразным, как и использование распознавания изображений.
Подумайте сами — пользователю каждый раз приходится доказывать, что он не верблюд. Если бы я был на его месте, я бы обиделся.
Другие действия по проведению границы между роботами и реальными людьми, такие как анализ движения мыши по странице перед публикацией комментария, кажутся мне слишком сложными.
С тем же результатом вы можете проверить, поддерживает ли робот Javascript или нет. При этом в любом случае остаются позади пользователи с отключенным Javascript. Это нехорошо, несмотря на их небольшое количество.
Также не стоит забывать, что клиентские скрипты очень легко эмулировать, а потому для серьезных систем безопасности они не подходят. Но наиболее успешными я считаю методы, незаметные для обычного пользователя.
В небольших проектах, где не требуется защита от специализированных роботов, стоит использовать такие решения.
Это скрывает (display:none) специальное поле ввода «для спамеров» — обычный пользователь его не увидит, но робот в него что-нибудь обязательно напишет. Также можно создать путаницу в названиях полей — назвать поле с почтовым адресом «имя».
В результате в него будет внесено имя спамера и оно не пройдет проверку.
Методы, описанные в последней группе, хороши прежде всего тем, что пользователь никому не доказывает, что он не спамер – спамеры выдают себя.
В худшем случае пользователю придется каждый раз соглашаться, что он не верблюд – не заполняйте пустое поле для спамеров.
Мне кажется, что этот подход со временем станет популярнее, чем использование исключительно капчи, несмотря на эффективность последней.
Уже сейчас в крупных сервисах капча часто появляется для отсеивания потенциально роботизированных пользователей — например, тех, кто не смог вспомнить пароль с первой попытки.
Или те, кто оставляет больше 5 комментариев за 5 минут. Те.
действует презумпция невиновности — пользователь считается человеком до тех пор, пока он не совершит что-то, свойственное не человеку, а свойственному роботу.
Выработать подобное отношение к пользователям можно, взяв для анализа не только текущие действия, но и всю накопленную историю этого пользователя.
К сожалению, подробной статистики по роботам и их поведению у меня нет. Это хорошая цель для исследования.
Возможно, я даже вникну в это.
Если бы такая статистика существовала, то о роботах можно было бы говорить более конкретно, указывая конкретные цифры.
Согласитесь, было бы интересно узнать процент роботов, способных обходить тот или иной тип защиты.
Или тех, кто обладает уникальными навыками (например, тех, кто умеет обрабатывать Javascript или маскироваться под реальных людей при перемещении по сайту).
Это позволило бы более эффективно выстроить политику защиты сайтов от спама.
Я хочу провести аналогию.
Как в казино следят за посетителями, не вмешиваясь в их игру, и пытаются выявить мошенников на основе анализа их поведения, так и я хочу видеть системы защиты сайта, выявляющие спам-роботов, ориентируясь не только на его текущие действия, но и на история его действий в прошлом и поведенческие особенности.
Думаю, что имея такую информацию, можно достаточно эффективно идентифицировать роботов (в том числе специализированных), не мешая обычным пользователям.
взято из моего блога Теги: #роботы #спам #боевые роботы #Чулан
-
Десять Мифов Об Apple Iphone
19 Oct, 24 -
Js И Его Запретные Секреты
19 Oct, 24