Электрическое Мышление

Эта тема является переводом статьи Ивонн Рэйли из журнала Научный американский разум .



Электрическое мышление

Сколько времени вам понадобится, чтобы сложить числа 3 456 732 и 2 245 678? Десять секунд? Неплохо для человека.

Средний современный компьютер может выполнить эту операцию за 0,000000018 секунды.

А что у тебя с памятью? Можете ли вы вспомнить запланированный список покупок из 10 пунктов? А из 20? Сравните это со многими миллионами для компьютера.

С другой стороны, компьютеры не так быстро распознают лица, которые люди узнают мгновенно.

Машинам не хватает креативности свежих идей, у них нет чувств и теплых воспоминаний о молодости.

Но последние технологические достижения сокращают разрыв между человеческим мозгом и электрической системой.

В Стэнфордском университете биоинженеры воспроизводят сложную параллельную обработку нейронных сетей на микрочипах.

Другая разработка, робот по имени Дарвин VII, оснащен камерой и металлической челюстью, поэтому он может взаимодействовать с окружающим миром и учиться, как молодое животное.

Исследователи из Института нейронаук в Ла-Хойе, штат Калифорния, смоделировали мозг Дарвина на мозге крысы и обезьяны.

Эти разработки поднимают естественный вопрос: если компьютерная обработка в конечном итоге имитирует естественные нейронные сети, сможет ли холодный кремний когда-нибудь мыслить в полном смысле этого слова? И как мы это оценим, если он еще может? Более 50 лет назад британский математик и философ Алан Тьюринг изобрел оригинальную стратегию привлечения внимания к этим проблемам и, следуя этой стратегии, внес большой вклад в разработку искусственного интеллекта.

В то же время начал проливаться свет на человеческое познание.



Начало: Проверка вашего ума

Так что же мы подразумеваем под словом «думать»? Люди часто используют это слово для описания процессов, влияющих на сознание, интеллект и творческие способности.

В отличие от современных компьютеров, которые лишь следуют инструкциям написанных на них программ.

В 1950 году, в эпоху, когда еще не было кремниевых микрочипов, Тьюринг понял, что по мере того, как компьютеры станут умнее, в конечном итоге возникнет вопрос об искусственном интеллекте.

В, пожалуй, самой известной философской заметке, когда-либо существовавшей, « Вычислительные механизмы и интеллект Тьюринг просто заменил вопрос «Могут ли машины думатьЭ» на «Может ли машина — компьютер — победить в симуляционной игреЭ» Значит, может ли компьютер вести разговор настолько естественно, что обманывает собеседника настолько, что он думает, что с ним разговаривает другой человек? Тьюринг почерпнул свою идею из простой игры в комнате, в которой человек должен был с помощью серии вопросов определить пол человека в соседней комнате.

Своим экспериментом он заменил человека в соседней комнате компьютером.

Чтобы пройти испытание, которое теперь называется « Тест Тьюринга ", компьютер должен ответить на любой вопрос человека-дознавателя, обладающего лингвистической компетентностью и искусным подражанием человеку.

Тьюринг завершил свое плодотворное исследование предсказанием, что через 50 лет (это прямо сейчас) мы сможем создать компьютер, который будет настолько хорош в имитационной игре, что среднестатистический следователь будет иметь только 70-процентный шанс достоверно распознать своего противника.

.

собеседник - он машина или человек.

Предсказание Тьюринга не сбылось.

Ни один компьютер не сможет пройти его тест. Почему существуют вещи, которые легко выполняются людьми, но очень сложны для машин? Чтобы пройти тест, компьютер должен продемонстрировать не одну способность (в математике, ораторском искусстве или умении ловить рыбу), а многие из них — столько, сколько имеет обычный человек.



Электрическое мышление

Компьютеры по-прежнему имеют ограниченную архитектуру.

Их программирование позволяет им решать конкретные проблемы, и у них есть база знаний, применимая только к этой одной проблеме.

Хороший пример — Анна, онлайн-консультант IKEA. Вы можете спросить Анну о товарах и услугах, но она не сможет вам рассказать о погоде.

Что еще нужно компьютеру, чтобы пройти тест Тьюринга? Понятно, что у него должен быть большой словарный запас со всеми причудами и странностями в виде игры слов.

Очень важно учитывать контекст, в котором используется этот каламбур.

Но компьютеры не могут легко распознавать контекст. Слово «банк», например, может означать «берег реки» или «финансовое учреждение» в зависимости от контекста, в котором оно используется.

Что делает контекст таким важным, так это то, что он обеспечивает фундаментальные знания.

Существенной частью этих знаний является, например, знание личности человека, задающего вопросы: взрослый он или ребенок, эксперт или любитель.

А на вопрос типа «Янкиз» выиграли чемпионатЭ» Очень важен год, в котором задан вопрос.

Фундаментальные знания полезны во всех случаях, поскольку они уменьшают количество необходимой вычислительной мощности.

Логики недостаточно, чтобы правильно ответить на такой вопрос, как «Где нос Сью, если Сью домаЭ» Нужно знать, что носы обычно прикрепляются к своим владельцам.

Для такого типа вопросов недостаточно сказать компьютеру, чтобы он ответил «дома».

Затем компьютер на вопрос «Где рюкзак Сью, если она домаЭ» следует ответить «дома», тогда как подходящим ответом будет «Я не знаю».

И только представьте, насколько сложным был бы этот вопрос, если бы Сью недавно сделала пластическую операцию на носу.

Здесь правильным ответом будет встречный вопрос: «О какой части носа Сью вы спрашиваетеЭ» Попытка написать программное обеспечение, учитывающее все возможные случаи, быстро приводит к тому, что ученые называют «комбинаторным взрывом» (экспоненциальное увеличение количества вариантов или ресурсов, необходимых для решения проблемы, по мере линейного увеличения размера проблемы).



Человек или просто гуманоид?

Однако тест Тьюринга подвергается критике.

Философ Нью-Йоркского университета Нед Блок утверждает, что имитационная игра Тьюринга так или иначе проверяет только поведение компьютера по отношению к идентичности поведения человека (речь идет только о вербальном и когнитивном поведении).

Представьте себе, если бы мы могли запрограммировать компьютер со всеми возможными вариантами разговора четко определенной продолжительности.

Когда следователь задает вопрос Q, компьютер ищет разговор, в котором встречается Q, а затем выдает требуемый ответ A. Когда следователь задает свой следующий вопрос P, компьютер ищет строки Q, A и P и выдает ответ Б, который следует из этого разговора.

По мнению Блока, такой компьютер будет иметь интеллект тостера, но пройдет тест Тьюринга.

Один из ответов на вызов Блока состоит в том, что проблема, которую он поднимает для компьютеров, также применима и к человеческому поведению.

Оставляя в стороне физические характеристики, очевидным фактом является то, может ли человек думать или нет, — это поведение, вызывающее мысль.

А это значит, что мы никогда не узнаем наверняка, говорит ли наш собеседник в обычном понимании этого слова.

Философы называют это проблемой «других умов».



Кто-нибудь из китайцев?

Эта линия обсуждения является аргументом Китайская комната – разработал философ Джон Роджерс Сирл Калифорнийский университет в Беркли, чтобы показать, что компьютер может пройти тест Тьюринга, не понимая значения слов, которые он будет использовать.

Чтобы проиллюстрировать это, Сирл предлагает нам представить, что программисты написали программу, имитирующую понимание китайского языка.

Представьте, что вы процессор компьютера.

Вы заперты в комнате (компьютерном шкафу), полной корзин с китайскими иероглифами (знаками, которые появляются на экране компьютера).

Вы не знаете китайского, но у вас есть большая книга (прикладная программа), в которой рассказывается, как обращаться с этими иероглифами.

Однако правила в книге не говорят вам, что означают эти символы.

Когда китайские иероглифы входят в комнату (вход), ваша задача — отправить их обратно из комнаты (выход).

Для этой задачи вам дается дополнительный набор правил — эти правила соответствуют программе моделирования, предназначенной для прохождения теста Тьюринга.

Вы не осознаете, что символы, которые входят в комнату, — это вопросы, а символы, которые вы посылаете обратно, — это ответы.

Кроме того, эти ответы прекрасно имитируют ответы, которые мог бы дать говорящий по-китайски; так что со стороны комнаты кажется, что вы знаете китайский.

Но вы, конечно, его не знаете.

Точно так же, как компьютер сможет пройти тест Тьюринга, но на самом деле он не будет думать.

Чтобы научиться думать, машина должна иметь возможность познавать вещи самостоятельно.

Смогут ли когда-нибудь компьютеры понять, что означают эти символы? Специалист в области информатики Стивен Харнад В Саутгемптонском университете в Англии считают, что могут, но, как и людям, компьютерам при первом обучении придется понимать абстракции и их контекст, точно так же, как они устанавливают связи с реальным внешним миром.

Люди познают значение слов через причинную связь между нами и объектом, которому соответствует символ.

Мы понимаем слово «дерево», потому что у нас есть жизненный опыт общения с деревьями.

(Рассмотрим такой случай: слепая и глухая Хелен Келлер наконец поняла значение слова «вода», когда оно упало ей на руку; к ней пришло прозрение, когда она коснулась воды, текущей из насоса.

)

Электрическое мышление

Харнад утверждает, что для того, чтобы компьютер мог понять значение символов, которыми он манипулирует, он должен быть оснащен сенсорным оборудованием, например камерой, чтобы он мог действительно видеть объекты, представленные этими символами.

Такой проект, как маленький Дарвин VII, робот с камерой вместо глаз и металлическими челюстями, является еще одним шагом в этом направлении.

Харнад предлагает пересмотренный тест Тьюринга, который он называет роботизированным тестом Тьюринга.

Чтобы получить ярлык «мыслящей», машина должна пройти тест Тьюринга и быть подключенной к внешнему миру.

Интересно, что это дополнение отражает одно из личных наблюдений Тьюринга: машине, как он написал в отчете 1948 года, нужно позволить «путешествовать по окружающему ее миру», чтобы она могла «иметь шанс познавать вещи самостоятельно».



Будущий робот

Сенсорное оборудование, которое, по мнению Харнада, имеет решающее значение, может предоставить ученым-компьютерщикам возможность снабдить компьютер контекстом и фундаментальными знаниями, необходимыми для прохождения теста Тьюринга.

Вместо того, чтобы требовать грубого ввода всех необходимых данных, робот изучает только то, что ему необходимо знать для общения в окружающей среде.

Можем ли мы быть уверены, что предоставление сенсорного доступа к окружающему миру в конечном итоге наделит компьютер реальным пониманием? Это именно то, что хочет знать Сирл.

Но прежде чем мы сможем ответить на этот вопрос, нам нужно дождаться, пока машины действительно пройдут роботизированный тест Тьюринга Харнада.

Между тем, модель интеллекта, предложенная тестом Тьюринга, продолжает обеспечивать важную стратегию исследований ИИ.

По мнению философа Дартмутского колледжа Джеймса Мура, самая сильная сторона теста — это предвидение, которое он предлагает — «создание сложного, повсеместного интеллекта, способного к обучению».

Это предвидение ставит ценную задачу перед ИИ, независимо от того, сможет ли машина, прошедшая тест Тьюринга, думать, как мы, понимать или осознавать.

Теги: #искусственный интеллект #тест Тьюринга #Китайская комната #роботы #Шкаф

Вместе с данным постом часто просматривают: