О Машинном Обучении, Истории И Жизни С Дмитрием Ветровым



О машинном обучении, истории и жизни с Дмитрием Ветровым

В рамках открытого курс в области машинного обучения мы продолжаем общаться с видными представителями этой области.

Нашими первыми собеседниками были Александр Дьяконов, Константин Воронцов и Евгений Соколов, видео смотрите в YouTube канал курс.

На этот раз мы поговорили с Дмитрием Ветровым.

Добрый день.

Сегодня у нас в гостях Дмитрий Петрович Ветров, профессор-исследователь факультета компьютерных наук, руководитель исследовательской группы байесовских методов.

Дмитрий Петрович продолжает преподавать курсы на кафедре математических методов прогнозирования МГУ, где когда-то учился.

Оказывается, может быть, случайно, что мы уже встречались и общались с Александром Дьяконовым, Константином Воронцовым, Евгением Соколовым, и теперь вы уже четвертый представитель кафедры математических методов прогнозирования вычислительной математики и математики МГУ.

.

Расскажите, как вы оказались вместе, работали ли вы вместе над каким-либо проектом, как жизнь вас разбросала и общаетесь ли вы сейчас с коллегами? Конечно, мы активно общаемся.

Мы все вышли из одной научной школы академика Журавлева, который в 1997 году основал в ВМК кафедру математических методов прогнозирования.

Константин Вячеславович, Александр Геннадьевич, Евгений Андреевич и ваш покорный слуга активно преподавали там и частично преподают сейчас.

Что касается работы над совместными исследованиями, то, думаю, это была моя главная ошибка.

Я занимал должность ученого секретаря кафедры 5 лет, осуществлял оперативное руководство кафедрой, и за это время мы не работали вместе ни над одним научным проектом.

Казалось, времени уже много и мы еще успеем поработать, но оказалось, что жизнь начала нас разбрасывать.

Константин Воронцов сосредоточился на работе в Физико-технологическом институте, Александр Дьяконов ушел в промышленность, а мы с Евгением Соколовым перенесли основные усилия на факультет компьютерных наук НИУ ВШ?.

В результате мы несколько лет работали на одной кафедре, вместе преподавали, общались, но ни разу не проводили совместных исследований.

Теперь я сожалею об этом.

Я многому научился у своих коллег, но мог бы узнать больше.

То есть ваше сотрудничество было больше связано с преподаванием, верно? Да.

И поэтому, несмотря на то, что жизнь нас разбросала, на мой взгляд, кафедра математических методов прогнозирования сегодня самая сильная в ВМК и я стараюсь ей помочь, чем могу.

Мы там до сих пор читаем курсы: Дьяконова, Соколова, Воронцова и Ветрова.

То есть, хотя мы и утратили связь с кафедрой, мы продолжаем участвовать в ее жизни, хотя, конечно, не так, как раньше.

Ну, наверное, если говорить о теоретическом машинном обучении, то сейчас лучшее образование дает кафедра математических методов прогнозирования.

Если сравнивать с той же ФКС, где многие курсы скорее практические.

Тут можно вспомнить статью Константина Вячеславовича на MachineLearning.ru, как вообще преподавать машинное обучение.

По моему субъективному ощущению, самая мощная теоретическая база дается именно в ВМК.

Я бы не стал так категорично утверждать.

Сегодня есть много мест, где очень хорошо преподают машинное обучение: в том же ВМК, на факультете компьютерных наук по специализации «Машинное обучение и приложения», в ШАД и в Физико-технологическом институте.

Мне сложно сказать, где программа более теоретическая, а где более прикладная.

Но вы перешли из МГУ в Высшую школу? А что если сравнить эти два университета в целом? VS?, наверное, многие критикуют за вестернизацию и вообще за ориентацию на западную научную систему, базы научного цитирования Web of Science и Scopus. В общем, тут такая двойная игра у ВШ?: на с одной стороны, много государственных заказов на исследования, а с другой стороны, идет гонка за публикации в лучших журналах и на лучших западных конференциях.

Вы можете все это делать, публикуетесь в лучших журналах и посещаете топовые конференции по машинному обучению.

Как бы вы ответили на этот довольно философский вопрос: как нам догнать Запад? Стоит ли нам сосредоточиться на их ценностях и публикациях в их журналах? Или, если мы будем всё время догонять, то никогда их не догоним? Слушайте, во-первых, я бы вас поправил.

Вы говорите: «Вестерн, Вестерн.

».

Это совсем не Западно, это уже давно не Западно - это глобальная тенденция развития науки.

Во-вторых, специфика развития науки в нашей стране как по объективным, так и по субъективным причинам заключалась в том, что во многих областях наука была изолирована от мировых тенденций.

И машинное обучение, увы, было одним из них.

Мне кажется, что любая форма научной изоляции вредна именно для того сообщества, которое изолирует себя от остального мира.

Поэтому я за максимальную интеграцию.

Но не с западным сообществом, повторяю, а с мировым сообществом.

Есть много исследователей мирового уровня из Китая, Индии, Японии.

Если мы хотим продолжать достижения мировой науки, быть в авангарде, то, конечно, нужно следить за международными конференциями, журналами и, естественно, опубликовать там.

На мой взгляд, интеграция в мировое научное сообщество даст возможность выйти на эти передовые позиции и, возможно, даже стать лидерами в определенных областях.

Теперь всем стало очевидно, что российское научное сообщество в области машинного обучения отстает от мировых тенденций на 10–20 лет. Это очень печально.

Фактически это означает, что это научное направление необходимо перестраивать с нуля.

И главной причиной этого отставания стала самоизоляция от мирового научного сообщества.

Нам нужно его догнать — выбора у нас пока нет. И да, человечество пока не придумало ничего лучше, чем ориентироваться на мировые научные стандарты проведения исследований (при строгом соблюдении научного метода, грамотной постановке эксперимента, анонимном рецензировании, постоянном чтении научных статей, чтобы быть «в курсе событий»).

знать» и т. д.).

Любые попытки противостоять этим стандартам приводят к отставанию и постепенной деградации.

При этом у нас есть свои конкурентные преимущества: высокий уровень математических знаний абитуриентов и студентов, ряд отраслевых инициатив, направленных на обучение современным методам машинного обучения.

Появились новые проекты, такие как организация школьных и студенческих олимпиад по анализу данных.

Это очень хорошие события, которые дают повод для осторожного оптимизма.

Жаль, что все эти начинания происходят не благодаря, а зачастую вопреки Российской академии наук, которая, казалось бы, должна была возглавить эту тенденцию.

Поэтому я считаю, что науку в области искусственного интеллекта в России необходимо перестраивать с нуля.

Есть места, где из вас сделают толковых специалистов и решателей прикладных задач, но мест, где из вас сделают разработчика новых технологий машинного обучения, практически нет. Заниматься постоянным повторным внедрением технологий, разработанных в Google, я, как и многие компании, считаю это скучным и чувствую, что мы можем Что касается того, что я публикуюсь на ведущих конференциях.

Я считаю, что публикуюсь мало и неудовлетворен нынешней публикационной активностью.

Мне хотелось бы заниматься этим гораздо интенсивнее, и мы активно над этим работаем.

И тем не менее, сейчас часто случается, что даже зарплата ученого и его научная репутация зависят от цитирований, в частности в Web of Science и Scopus. Кажется, что у этой системы те же недостатки, что и у экзаменов, той же ЕГ?.

Несмотря на недостатки, нужно ли все же делать упор на публикации и индексацию в базах научного цитирования? Уточните, пожалуйста… Мне кажется, скоро научное сообщество научится как-то лучше оценивать вклад учёных.

Скажем, как-то на основе алгоритма PageRank. Ведь сейчас даже не учитывается контекст цитаты и эмоциональная окраска.

Допустим, я вас сейчас процитирую, но скажу, что совершенно не согласен с написанным и вообще это все ерунда какая-то.

В нынешней системе это по-прежнему будет засчитываться как +1 к числу цитирований ваших статей.

Какие варианты совершенствования системы оценки вклада исследователя вы видите? Даже если вы процитируете меня с негативными эмоциями, сам факт этой цитаты будет означать, что мои исследования каким-то образом повлияли на вашу работу.

Цитируемость определяется очень простой вещью: то, что сделал человек, кому-то нужно, кто-то этим пользуется, даже с отрицательными эмоциями.

Это лучше, чем вообще отсутствие кавычек.

Это первое.

Зарплата сотрудников ВШ? не зависит от количества цитирований.

Он определяется уровнем публикации, то есть уровнем издания, в котором опубликовано ваше произведение.

Это второй.

Вы можете делать с цитатами все, что захотите; вы можете, например, самоцитировать.

Но поднять уровень издания, в котором опубликована ваша статья, невозможно в принципе.

Ни за какие деньги, не через связи.

Нельзя «проситься» на публикацию на ведущей конференции — туда надо попасть через строгую систему рецензирования и отбора.

Кстати, тот факт, что зарплата ученого определяется в зависимости от уровня издания, в котором он публикуется, характерен не только для Вышки; то же самое и в МГУ, и в Физико-техническом институте.

Следующий вопрос: как определить, какие публикации считать хорошими, а какие плохими.

Вопрос критический.

Любые ошибки в определении этого приводят к тому, что исследователи начинают фокусироваться на неправильных целях.

Например, вместо того, чтобы расти профессионально и публиковаться на все более престижных конференциях, они начинают гоняться за все большим количеством публикаций в «мусорных» журналах.

И, например, у меня есть вопросы по критериям, введенным в МГУ.

Они вряд ли способствуют профессиональному росту ученого, но поощряют его подражание.

Я вижу, что систему можно обойти, например, сделав некачественную публикацию, чтобы получить большой бонус.

И это происходит постоянно.

Обойти систему ВШ? гораздо сложнее именно потому, что она составлена с учетом рейтингов изданий, хотя допускаю, что это тоже возможно.

Если говорить о международных конференциях уровня ICML и IJCAI, то одна из ваших работ с коллегами посвящена байесовскому прореживанию глубоких сетей («Variational Dropout Sparsifying Deep Neural Networks», архив ), опубликованный на ICML, получил множество отзывов научного сообщества.

Можете ли вы рассказать об этом – это маленький постепенный шаг в развитии науки или это революционная вещь? Как это поможет развитию глубокого обучения теоретически и практически? В целом мы можем говорить о байесовских методах глубокого обучения.

Или подробно :) Давайте не будем говорить о революционных вкладах.

Кажется, революционные статьи можно пересчитать по пальцам.

Мы сделали шаг в правильном направлении; это направление, на мой взгляд, технически важно и имеет значительные перспективы.

Это то, что мы в нашей группе пытаемся сделать — скрестить байесовский подход к машинному обучению с глубокими нейронными сетями.

И упомянутая вами работа действительно вызвала определенный интерес в научном сообществе.

Мы взяли известную процедуру регуляризации нейронных сетей — дропаут и на основе работы наших коллег из Амстердамского университета, которые показали, что дропаут можно рассматривать как байесовскую процедуру, предложили ее обобщение.

В качестве особого случая он включает регулярное отсев, но также позволяет автоматически корректировать уровень отсева с помощью вариационного байесовского вывода.

То есть вероятность, с которой в нашей сети будет выброшен каждый вес или каждый нейрон, выбирается не на глаз или с помощью перекрестной проверки, а автоматически.

Как только мы научились делать это автоматически, появилась возможность вводить в нейросеть индивидуальный коэффициент отсева для каждого веса и оптимизировать функционал по всем этим параметрам.

В результате эта процедура приводит к потрясающим результатам.

Получается, что более 99% весов можно просто удалить из сети (т. е.

их процент отсева станет равным единице), при этом качество работы на тестовой выборке не пострадает. То есть мы сохраним высокую способность к обобщению, низкую ошибку теста, но при этом нейронную сеть можно будет сжать в 100, а то и в 200 раз.

Означает ли это, что интенсивность отсева можно подобрать даже аналитически? Не аналитически, конечно, но это самая обычная оптимизация.

Здесь функциональность была строго определена, что естественным образом вытекает из процедуры байесовского вывода.

Наш результат говорит о том, что мы движемся в правильном направлении.

Известно, что современные нейронные сети обладают высокой избыточностью, однако неясно, как устранить эту избыточность.

Конечно, были попытки, например, взять сеть поменьше, но качество проседало.

Итак, теперь кажется, что лучший способ — взять избыточную нейронную сеть, обучить ее, а затем устранить избыточность с помощью байесовской процедуры исключения.

Ясно.

Вот более общий вопрос.

Какими вы видите перспективы развития байесовских методов применительно к глубокому обучению? Какие здесь могут быть проблемы? Современные глубокие нейронные сети обучаются, по сути, с использованием метода максимизации правдоподобия, который, как известно из статистики, является оптимальным методом при определенных условиях.

Вся проблема в том, что ситуация, возникающая при обучении глубоких нейронных сетей, не удовлетворяет условиям, гарантирующим оптимальность метода максимального правдоподобия.

Условия очень простые.

Необходимо, чтобы количество обучающих примеров, используемых для настройки параметров алгоритма машинного обучения, было значительно больше количества этих параметров.

В современных глубоких сетях дело обстоит иначе.

А использовать метод максимального правдоподобия можно, но на свой страх и риск, без каких-либо гарантий.

Оказывается, в такой ситуации, когда количество весов сравнимо или даже превышает размер обучающей выборки, байесовская статистика заменяет частотный подход классическими методами оценки.

Байесовские методы можно использовать для любого размера выборки, даже нулевого.

Можно показать, что если размер выборки по отношению к числу оцениваемых параметров стремится к бесконечности, то байесовский подход превращается в метод максимизации правдоподобия.

То есть классический и байесовский подходы не противоречат друг другу.

Напротив, байесовскую статистику можно рассматривать как обобщение классической статистики на более широкий класс задач.

Использование байесовского подхода к глубокому обучению приводит к тому, что нейронная сеть имеет ряд дополнительных преимуществ.

Во-первых, появляется возможность работать с пробелами в данных, то есть когда в обучающей выборке в некоторых примерах не указаны значения некоторых признаков.

Наиболее подходящим способом работы в такой ситуации является именно байесовская вероятностная модель.

Во-вторых, обучение байесовской нейронной сети можно и нужно рассматривать как определение распределения в пространстве всех возможных сетей, к которым можно применить ансамблевую технику.

То есть мы получаем возможность усреднить прогнозы многих нейронных сетей, полученные из апостериорного распределения в пространстве весов.

Такой ансамбль, в полном соответствии с байесовской статистикой, приводит к повышению качества относительно использования одной (даже самой лучшей) нейронной сети.

В-третьих, байесовские нейронные сети гораздо более устойчивы к переобучению.

Переобучение сейчас является одной из самых актуальных проблем в машинном обучении и в публикациях 2016–2017 годов.

Было показано, что современные архитектуры нейронных сетей катастрофически подвержены переобучению.

А байесовские нейронные сети практически не переобучаются.

Особенно примечательно, как меняются наши представления о регуляризации по мере развития байесовских методов.

Классическая регуляризация — это просто добавление дополнительного термина — регуляризатора — к оптимизируемому функционалу.

Например, это может быть нормой для настраиваемых параметров.

Регуляризатор смещает точку оптимума и частично помогает справиться с переобучением.

Теперь мы понимаем, что можно (и нужно) проводить регуляризацию иначе: добавляя в процесс оптимизации функционала шум, который не позволит стохастическим методам оптимизации сойтись к точному оптимальному значению.

Наиболее успешные на сегодняшний день методы регуляризации, например, отсев или пакетная нормализация, работают именно так.

Это не добавление регуляризатора к функции потерь, а контролируемое введение шума в задачу.

Это совершенно другой подход к регуляризации алгоритмов машинного обучения! Но какова должна быть интенсивность этого шума, куда его добавить? На этот вопрос можно правильно ответить, применив процедуру стохастического вариационного вывода в модели байесовской нейронной сети.

В-четвертых, потенциальное сопротивление тому, что называется состязательными атаками, когда мы искусственно создаем примеры, вводящие нейронную сеть в заблуждение.

Можно обмануть одну сеть, можно обмануть 10 сетей, но обмануть континуум нейронных сетей, получаемых в результате байесовского вывода в процессе обучения, не так-то просто.

Я считаю, что объединение нейросетевого и байесовского подходов чрезвычайно перспективно.

Там прекрасная математика, потрясающие эффекты и хорошие практические результаты.

В настоящее время у нас недостаточно байесовских инструментов для проведения эффективного байесовского вывода.

Но необходимые для этого масштабируемые методы приближенного байесовского вывода сейчас активно разрабатываются в мире.

Но просто уточнение.

Верно ли, что дропаут можно рассматривать как переход к распределению по нейронным сетям, и тогда результатом обучения при применении дропаута будет ансамбль нейронных сетей? Да.

И в исходной формулировке дропаута мы тоже приходим к ансамблю нейронных сетей, но непонятно откуда взялся этот ансамбль.

Если переформулировать выпадение в терминах байесовского вывода, то все встанет на свои места.

Становится понятно, как его настроить и как автоматически выбирать процент отсева.

Более того, у нас сразу появляется ряд возможностей обобщить и модифицировать исходную модель отсева.

Могут ли байесовские методы дать какое-то представление о том, что обычно происходит при обучении нейронных сетей? В частности, сейчас настройка гиперпараметров сети — это своего рода эвристическая процедура; методом проб и ошибок мы как-то понимаем, что в одной ситуации нужно добавить BatchNorm, в другой нужно немного подправить дропаут. То есть мы еще далеки от теоретического понимания того, как многочисленные гиперпараметры влияют на обучение нейронных сетей.

Здесь байесовские методы могут дать новое понимание? Позвольте мне уточнить.

Вопрос о том, как мы понимаем, как нейронные сети принимают решения или как они решают задачу оптимизации? Это важное различие.

Во-первых, за что отвечают гиперпараметры и как они влияют на обучение.

Это наше первое недоразумение.

Во-вторых, возможно ли еще иметь какие-то теоретические гарантии от ошибки обобщения в случае нейронных сетей? Насколько мне известно, теория вычислительного обучения по-прежнему применима к перцептронам и однослойным сетям, но она бессильна, когда мы переходим к глубоким нейронным сетям.

В частности, те же самые состязательные атаки показывают, что мы до сих пор плохо понимаем, насколько нейронные сети способны к обобщению.

То есть изменили буквально один пиксель, и теперь нейросеть говорит, что пингвин не пингвин, а трактор.

Ведь это катастрофа, если так подумать! Даже несмотря на отличные результаты сверточных сетей на ImageNet. Могут ли байесовские методы предложить что-то и здесь? Вопросов много, давайте разберем их по порядку.

Я уже говорил о сопротивлении состязательным примерам; Байесовские нейронные сети более устойчивы к таким атакам, хотя проблемы все же есть.

Причина этой проблемы на самом деле ясна.

Все состязательные примеры крайне нетипичны с точки зрения общей популяции (на которую настроена нейросеть, неважно, байесовская она или нет).

То, что мы визуально не видим отличий от исходной картинки, не означает, что их не существует. А на нетипичных объектах ответ любого алгоритма машинного обучения может быть произвольным.

Это логически подразумевает способ борьбы с состязательными примерами, но это совсем другая история.

Что касается статистической теории обучения и гарантий способности к обобщению: действительно сейчас ситуация такова, что результаты теории не передаются в современные нейронные сети, все это понимают, поэтому специалисты по статистической теории обучения активно работают над тем, чтобы обеспечить что новые методы применимы к глубоким нейронным сетям.

Надеюсь, мы увидим это в ближайшие годы.

Можно ли определить архитектуру сети с помощью байесовских методов? Ответ: гипотетически возможно, практически - сейчас в мире делаются первые шаги.

Байесовское прореживание также можно рассматривать как выбор архитектуры нейронной сети.

Для более полного ответа на этот вопрос необходимы новые инструменты, в частности, другие методы регуляризации, например пакетная нормализация, необходимо перевести на байесовский язык.

Необходимость в этом очевидна, желание очевидно.

Такая работа ведется, но пока никаких успехов достигнуто не было.

Надеюсь, это вопрос времени.

И на самом деле, главное преимущество байесовского подхода — автоматическая настройка гиперпараметров.

Чем больше процедур построения нейронных сетей мы перенесем на байесовские рельсы, тем больше возможностей появится для автоматического выбора топологии нейронной сети.

Ну и последний вопрос о том, почему нейросеть принимает то или иное решение.

Это вопрос, на который мы вряд ли сможем получить исчерпывающий ответ в ближайшем будущем.

С моей точки зрения, одним из наиболее многообещающих методов понимания того, что происходит в нейронных сетях, является так называемый механизм внимания.

Часть этого механизма также построена на байесовских принципах, но эти методы пока еще достаточно грубы.

Я надеюсь, что в ближайшем будущем мы сможем выйти на уровень, когда будет понятно, что происходит с нейронными сетями.

Однако ряд косвенных экспериментов, в том числе проведенных в нашей группе, показывают, что компьютер понимает смысл данных гораздо лучше, чем принято считать.

В некоторых случаях можно заставить компьютер выразить свое понимание на человеческом языке.

Об одной из таких моделей и невероятных эффектах, которые мы наблюдали в ней, я расскажу на своем следующем публичном выступлении.

Я думаю, это может быть одним из способов понять логику работы нейронной сети — она сама должна генерировать объяснение того, почему было принято то или иное решение.

Хорошо, а байесовские методы каким-то образом основаны на наблюдениях за человеческим мозгом? В частности, не все нейронные связи в нашем мозгу активируются, и это может послужить мотивацией для применения техники отсева.

Знаете ли вы случаи, когда исследования в области нейрофизиологии служили источником новых идей именно в области байесовской статистики? Ну, во-первых, сразу развею популярное заблуждение о том, что искусственные нейронные сети якобы имитируют работу человеческого мозга.

Нет. Это неправильно.

Они не имеют ничего общего с человеческим мозгом.

Точнее, раньше, когда впервые появились искусственные нейронные сети, они были связаны с человеческим мозгом.

Но теперь мы понимаем гораздо больше и в машинном обучении, и в нейрофизиологии, и можем смело сказать, что это разные механизмы.

Искусственная нейронная сеть — это отдельная модель, имеющая с биологическим мозгом не больше общего, чем, скажем, дерево решений.

С другой стороны, существует множество психологических исследований, которые показывают, что человеческий мозг во многом работает по байесовским принципам.

Я не готов подробно это комментировать, но такое мнение есть.

Хорошо, позвольте мне перевести разговор в немного другую тему.

В школе я, конечно, изучал математику, физику, разные науки и быстро понял, что формулы в голове просто впитываются сразу, раз и навсегда.

Если я когда-то узнал, что такое импульс, мне тогда не нужно запоминать, что это за импульс – масса, умноженная на скорость, или скорость в квадрате.

А по истории у нас были замечательные преподаватели и в школе, и в университете.

У нас в Физтехе, например, могла быть даже ситуация, когда на лекции по специальности архитектура присутствовало 15 человек? Все дело, конечно, в преподавателе, он еще и блестящий актер, на его лекции люди приходили чуть ли не с попкорном – каждый раз это было похоже на спектакль.

Но, к сожалению, историческая информация была мною очень плохо понята.

Оно вошло в одно ухо и вышло из другого.

Вроде бы мы 3 раза прошли и отечественную, и внешнюю историю, начиная от Рюриковичей и кончая Романовыми, но все это просто мгновенно у меня исчезло.

Я знаю о вас, что вы читали лекции по истории и в МГУ, и на факультете информатики.

Расскажите, как вы поняли, что изучать можно и историю, и прикладную математику, что эти два мира могут сосуществовать в вашей голове.

И как сейчас сохраняется этот интерес к истории? Ну, во-первых, важно понимать, что исторические лекции, которые я читаю, носят исключительно любительский характер и не претендуют ни на что иное, как вызвать интерес и самостоятельно изучить ту или иную тему.

Я не изучаю историю как науку.

Интерес к истории у меня появился еще в школе.

Одна из причин, по которой я интересуюсь, заключается в том, что человек, знающий историю, в каком-то смысле расширяет свой обучающий набор.

Он видит, что многие проблемы, с которыми сталкивается человечество, не новы — с ними сталкивались другие люди, поколения, государства.

Человек видит, как поступали люди и к чему это привело.

То есть он немного обогащает свой опыт. Откуда взялись лекции по истории.

ответ прост. По опыту общения со своими учениками я понял, что ребята практически ничего не знают из истории, и мне казалось, что им будет интересно, если я им немного об этом расскажу.

Хотя бы для того, чтобы люди могли отличать факты от бреда, который вбивают нам в уши некоторые СМИ.

С одной стороны, историю можно изучать и преподавать, чтобы избежать ошибок прошлого.

С другой стороны, существует мнение, что историю нужно преподавать, чтобы прививать патриотизм.

С моей точки зрения, студентам элитных вузов история нужна именно по первой причине, а не для того, чтобы воспитать в себе патриотизм.

Есть много других способов воспитания последних, например, спорт. Но цена, которую мы платим за привитие патриотизма интеллектуальной элите посредством преподавания «патриотической» истории, слишком велика.

При этом исторические события и факты искажаются для укладывания в патриотическую парадигму, у граждан развивается сознание собственного превосходства над другими народами и странами, ощущение, что «все нам обязано».

Никогда и нигде это не заканчивалось хорошо.

Диссертация Мединского, скажем так.

Что ж, это клинический пример, не нуждающийся в комментариях.

Мне нечего добавить к мнению экспертов ВАК, рекомендовавших лишить его ученой степени.

Так что на своих лекциях я стараюсь показать, что на историю нужно смотреть без патриотических шор и тогда она становится гораздо интереснее и интереснее.

многогранный.

Есть объективные исторические процессы, в которых нет правых и виноватых, история не черно-белая, а серая.

Все действующие лица преследуют определенные эгоистические интересы.

И тот факт, что эти правы, а эти нет, — это всего лишь попытка подогнать историю под идеологию.

Именно в надежде хотя бы частично снять такие шоры с молодежи, я и читаю свои лекции.

Но это не изложение какой-то объективной истины, а, скорее, попытка пробудить у студентов интерес и желание обратиться к историческим источникам и разобраться во всем самостоятельно.

Как вы думаете, существует ли какой-то математический порядок в истории? Нет, я, конечно, знаю, что, несмотря на некоторую критику, история — наука, и все применяемые в ней методы — чисто научные.

Но, тем не менее, возможно ли установить какие-либо исторические законы? Или история так и останется описанием жизни, скорее хроникой? В качестве примера приведу историка Григория Квашу.

Он выделяет циклы исторического развития - 12 лет, 36, 144. Например, если посмотреть на 20 век, то каждые 12 лет происходят довольно интересные исторические события.

1905 год - революция, 17 - революция, 29 - кризис и НЭП, 41 - начало войны, 53 - смерть Сталина, 65 - СССР ввёл танки, кажется.

Ну, я вижу.

из моего с точки зрения, это типичная корректировка; факты всегда можно наложить на любую желаемую модель.

Но думаете ли вы, что такие попытки найти в истории те или иные законы, как и в математике, могут быть успешными? Ну, как человек, владеющий научным методом, я не могу серьезно комментировать нумерологию :) Отмечу только, что каждый раз, когда возникает какая-то красивая теория, возникает большой соблазн подогнать под нее факты.

Если бы было желание, можно было бы найти 13- и 14-летние циклы.

Однако это не отменяет моей мечты и надежды на то, что в истории со временем начнет развиваться формализм, который позволит сформулировать основные законы исторического развития.

Конечно, не в нумерологическом плане.

Это моя стратегическая мечта.

Историки в подавляющем большинстве с этим не согласны, по крайней мере те, с кем я общался.

Они рассматривают историю как описание событий прошлого, их систематизацию, а не с целью вывода универсальных законов.

Они считают, что универсального закона не существует. Мне кажется, что такие законы существуют, потому что я вижу, что подобные события регулярно происходят в истории, и подобные действия приводят к схожим результатам.

Это приводит к мысли о том, что существуют универсальные законы общественного развития, знание которых позволит нам не только лучше описывать события прошлого, но и прогнозировать развитие будущего.

Здесь меня вдохновляет серия романов Айзека Азимова, в которых один из главных героев, кстати, математик, сумел вывести столь фундаментальные законы, предсказать будущее и даже предложить способы его коррекции, чтобы уменьшить ущерб от неизбежных войн и социальных катастроф.

Это, конечно, сказка.

Но сказка очень красивая.

Та сказка, в которую очень хочется верить.

Но чтобы попытаться установить эти законы в реальной жизни, необходимо существенно переработать методологию исторических исследований.

До сих пор коллег-историков не удалось убедить применить к историческим текстам и хроникам даже самые простые методы семантического анализа и тематического моделирования.

Похоже, здесь мы страдаем от своеобразного пренебрежительного отношения представителей многих гуманитарных наук к математике и их нежелания осваивать современные методы автоматизированной обработки больших объемов информации.

К сожалению, такое пренебрежительное отношение продолжает культивироваться в гуманитарном сообществе.

Это глубокая ошибка.

Никто не будет применять математические методы обработки информации в своих дисциплинах для гуманитариев.

Они сами должны понимать границы применимости методов и грамотно их использовать.

С этой целью мы в ВШ? запустили специальную серию образовательных курсов «Культура данных», чтобы научить студентов-гуманитариев современным математическим методам работы с данными.

Недавно ваша исследовательская группа в Сколтехе получила мегагрант от Правительства на разработку, и, в частности, ваша группа байесовских методов каким-то образом к этому причастна; он получил грант Российского научного фонда.

Расскажите, почему у нас в России так плохо получают гранты.

На Западе эта система очень развита.

Таких мегагрантов очень много, бюджет проекта исчисляется миллионами, когда ты действительно работаешь над большим многолетним проектом, можно культурно набрать аспирантов и постдоков.

У нас, конечно, есть гранты РФФИ, РНФ.

- закричал кот. А вот конкретный пример, когда ваша научная группа получила мегагрант. Расскажите, как вам это удалось и как вы планируете развиваться в рамках проекта? Больной Теги: #машинное обучение #байесовская статистика #глубокое обучение #Интеллектуальный анализ данных #Машинное обучение

Вместе с данным постом часто просматривают:

Автор Статьи


Зарегистрирован: 2019-12-10 15:07:06
Баллов опыта: 0
Всего постов на сайте: 0
Всего комментарий на сайте: 0
Dima Manisha

Dima Manisha

Эксперт Wmlog. Профессиональный веб-мастер, SEO-специалист, дизайнер, маркетолог и интернет-предприниматель.