Доказать, что вы не робот, становится все сложнее
В какой-то момент прошлого года постоянные требования Google доказать, что я человек, стали казаться все более агрессивными.
Все чаще за простой и немного слишком милой кнопкой «Я не робот» стали появляться требования доказать это — выделив в сетке изображений все светофоры, переходы или витрины.
Вскоре светофоры стали прятаться в листве, переходы стали искажаться и огибать углы, а вывески магазинов стали размытыми и перешли на корейский язык.
Есть что-то весьма неприятное в том, что вы не можете найти пожарный гидрант на изображении.
Эти тесты называются CAPTCHA, аббревиатура от «Полностью автоматизированный публичный тест Тьюринга для различения людей и компьютеров», и в прошлом они достигали аналогичного уровня неразборчивости.
В начале 2000-х простых изображений с текстом было достаточно, чтобы остановить большинство спам-ботов.
Прошло десять лет, и после того, как Google выкупила программу у исследователей из Университета Карнеги-Меллон и использовала ее для оцифровки в проекте Google Books, тексты приходилось все больше искажать и скрывать, чтобы опережать совершенствование программ оптического распознавания символов — тех самых программ, которые помог улучшить тех самых людей, которым приходилось разгадывать все эти капчи.
Поскольку CAPTCHA — элегантный инструмент для обучения ИИ, любой изобретенный тест, как признают его изобретатели, может длиться лишь какое-то время.
Со всеми этими исследователями, мошенниками и обычными людьми, решающими миллиарды задач на грани возможностей ИИ, в какой-то момент машины просто были обязаны нас догнать.
В 2014 году Google плей-офф между собой их лучший алгоритм решения самых искаженных текстов и людей: компьютер правильно распознавал текст в 99,8% случаев, а люди только 33% .
После этого Google перешел на NoCaptcha ReCaptcha , который наблюдает за поведением людей и собирает их данные, что позволяет одним из них двигаться дальше, просто нажав на кнопку «Я не робот», а другим дает задания на поиск изображений, которые мы видим сегодня.
Но машины нас снова догоняют. Все эти навесы, которые могут быть или не быть витринами, являются заключительным этапом гонки вооружений между людьми и машинами.
Джейсон Полакис, профессор информатики Иллинойского университета в Чикаго, несет личную ответственность за недавнее увеличение сложности капчи.
В 2016 году он опубликовал статью, в которой использовал готовые программы распознавания изображений, в том числе собственный поиск изображений Google, для решения капч с точностью 70%.
Другим исследователям удалось распознать аудиокапчу Google с помощью программного обеспечения для распознавания речи самой компании.
По словам Полакиса, машинное обучение уже так же хорошо, как и люди, распознает простой текст, изображения и голоса.
Алгоритмы, возможно, даже справляются с этой задачей лучше: «Мы достигли точки, когда усложнение задач для программного обеспечения означает, что задачи становятся слишком сложными для людей.
Нам нужна альтернатива, но четкого плана пока нет».
Литература по капчам полна фальстартов и странных попыток найти что-то кроме текста и изображений, в чем все люди хороши, а машины плохи.
Исследователи попробовал это просить пользователей отсортировать изображения людей по выражению лица, полу и этнической принадлежности (вы можете себе представить, как это происходило).
Были предложения организовать капчи с викторинами, капчи на основе колыбельные , распространенное в местах, где предположительно вырос пользователь.
Такие капчи с культурной отсылкой ориентированы не только на роботов, но и на людей из других стран, которые разгадывают капчи за копейки.
Люди пытались заблокировать алгоритмы распознавания изображений, прося пользователя идентифицировать, например, нарисованную свинью и в солнцезащитных очках.
Исследователи изучили варианты, позволяющие пользователям распознавать объекты в калейдоскопическая мешанина .
В одном из интересных вариантов в 2010 году исследователи предложили использовать капчу для сортировки.
древние петроглифы – Компьютеры плохо распознают эскизы или изображения оленей на стенах пещер.
В последнее время предпринимаются попытки разработать игровые капчи , где пользователю необходимо вращать объекты под определенными углами или перемещать кусочки головоломки, а инструкции по разгадке капчи давались не в виде текста, а в виде символов, либо подразумевались контекстом игрового поля.
Есть надежда, что люди поймут логику загадки, а компьютеры начнут спотыкаться без четких инструкций.
Другие исследователи пытались использовать тот факт, что у людей есть тела, и использовали камеры устройств или дополненную реальность для интерактивного подтверждения присутствия человека.
Проблема многих из этих тестов не в том, что роботы слишком умны, а в том, что люди с ними плохо справляются.
И дело не в том, что люди глупы; они просто сильно различаются по языку, культуре и опыту.
Если убрать все это и создать тест, который каждый сможет пройти без подготовки и долгих раздумий, у нас останутся задачи грубой силы, такие как распознавание изображений — а это именно то, с чем хорошо справился бы выделенный ИИ.
«Испытания ограничены человеческими возможностями», — говорит Полакис.
– Дело не только в физических возможностях – нужно найти что-то межкультурное, межязычное.
Вам нужна задача, которая хорошо сработает одновременно с человеком из Греции, человеком из Чикаго, человеком из Южной Африки, Ирана и Австралии.
И это не должно зависеть от культурных нюансов и различий.
Вам нужна задача, с которой средний человек может справиться хорошо, она не должна ограничиваться определенной группой людей и должна быть сложной для компьютера.
Все это сильно ограничивает выбор вариантов.
Это также должно быть чем-то, что люди быстро преодолевают и не слишком раздражают».
Попытка разгадать эти размытые загадки быстро приводит к философству: существует ли какое-то универсальное человеческое качество, которое можно продемонстрировать машине и которое машина не может имитировать? Что значит быть человеком? Возможно, наша человечность измеряется не тем, как мы выполняем задачи, а тем, как мы ведем себя, перемещаясь по миру — или, в данном случае, по Интернету.
Игровые капчи, видеокапчи, любая капча, которую вы можете придумать, в конечном итоге будет взломана, — говорит Шуман Госемаджумдер, который работал над автоматизацией антикликов в Google, а затем стал техническим директором компании Shape Security, занимающейся распознаванием роботов.
Он склоняется к «непрерывной авторизации» вместо отдельных тестов — к мониторингу поведения пользователей и поиску признаков автоматизации.
«Настоящий человек не обладает очень хорошим контролем движений и не сможет снова и снова двигать мышью в одном и том же направлении во время нескольких взаимодействий, даже если бы он попытался», — говорит Госмахамдер.
Робот будет взаимодействовать со страницей, не перемещая мышь или перемещая ее очень точно, и в действиях человека будет присутствовать «энтропия», которую трудно подделать, говорит Госмахамдер.
Собственная команда Google по проверке капчи работает в аналогичном направлении.
Последняя версия реКапча v3 , о котором было объявлено в конце прошлого года, использует «адаптивный анализ рисков» для оценки трафика на основе подозрений; Владельцы сайтов могут предлагать подозрительным пользователям такие задачи, как ввод пароля или двухфакторная аутентификация.
По словам Сая Хормаи, Google не сообщает, какие факторы учитываются при составлении рейтингов, за исключением того, что компания оценивает, как выглядит «хороший трафик» на сайте, и использует эту информацию для фильтрации «плохого трафика».
менеджер по продукту в команде.
КАПЧА.
Исследователи безопасности говорят, что это, скорее всего, смесь файлов cookie, атрибутов браузера, моделей трафика и других факторов.
Одним из недостатков новой модели обнаружения ботов является то, что навигация по сети при попытке минимизировать слежку за пользователями может немного раздражать, поскольку такие вещи, как VPN и расширения, которые затрудняют отслеживание пользователя, могут пометить вас как подозрительного.
Аарон Маленфант, ведущий инженер команды Google CAPTCHA, говорит, что отказ от тестов Тьюринга должен помочь победить в конкуренции, которую люди постоянно проигрывают. «Чем больше мы инвестируем в машинное обучение, тем сложнее эти задачи станут для людей, и именно поэтому мы запустили CAPTCHA V3 — чтобы опередить эту кривую».
Маленфант говорит, что через 5-10 лет проблемы с капчей вообще не будут иметь значения.
Большая часть сети будет зависеть от постоянного скрытого теста Тьюринга, работающего в фоновом режиме.
В своей книге «Самый человечный человек» Брайан Кристиан принимает участие в тесте Тьюринга в качестве приманки и понимает, что доказать свою человечность в разговорах очень сложно.
С другой стороны, разработчики ботов обнаружили, что эти тесты легко пройти, не притворяясь красноречивыми или умными, а отвечая на вопросы нелогичными шутками, делая опечатки или, как в случае с ботом, выигрывая Конкурс Тьюринга в 2014 году , утверждая, что вы 13-летний украинский мальчик, который плохо говорит по-английски.
В конце концов, человеку свойственно совершать ошибки.
Возможно, такое будущее ждет капчу, самый распространенный в мире тест Тьюринга — новая гонка вооружений создаст не роботов, превосходящих человека в сортировке изображений и синтаксическом анализе текста, а роботов, которые ошибаются, пропускают кнопки, отвлекаются и переключать вкладки.
«Я думаю, люди начинают понимать, что существуют приложения для моделирования обычного пользователя-человека… или тупого человека», — говорит Госмахамдер.
Капчи могут выжить в этом мире.
В 2017 году Амазонка зарегистрировал патент к схеме, использующей оптические иллюзии и логические головоломки, которые человеку трудно решить.
Этот тест называется тестом Тьюринга по ошибке, и единственный способ его пройти — дать неправильный ответ. Теги: #информационная безопасность #Google #искусственный интеллект #CAPTCHA #капча #Тест Тьюринга
-
Элементы Дизайна Логотипа Одежды
19 Oct, 24 -
Анонс Услуги Менеджера Личной Информации
19 Oct, 24 -
Проверка Простоты Регулярных Выражений
19 Oct, 24 -
О Маленькой Ос
19 Oct, 24