chitay-knigi.com » Разная литература » Думай «почему?». Причина и следствие как ключ к мышлению - Джудиа Перл

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 98 99 100 101 102 103 104 105 106 ... 116
Перейти на страницу:
исследования, для участников которых нельзя установить собственные критерии (и, соответственно, гарантировать, что исследуемая группа окажется такой же, как интересующая) в наших целях. Вместо того чтобы рассматривать эту разницу как угрозу для внешней валидности исследования, теперь мы устанавливаем валидность в ситуациях, которые раньше казались безнадежными. Именно потому, что мы живем в эпоху больших данных, у нас есть доступ к информации о многих исследованиях и вспомогательных переменных (например, Z и W), которые позволят нам переносить результаты с одной группы на другую.

Попутно упомяну, что Барейнбойм также подтвердил аналогичные результаты для другой проблемы, которая долгое время беспокоила статистиков, — систематической ошибки отбора. Этот вид ошибки возникает, когда изучаемая группа отличается от целевой по какому-либо значимому признаку, что весьма похоже на проблему транспортабельности. Да, эти явления действительно похожи, за исключением одного очень важного отличия: вместо того чтобы рисовать стрелку от индикаторной переменной S к затронутой переменной, мы рисуем стрелку в направлении S. Пусть S обозначает отбор (участников исследования). Скажем, если в нашем исследовании участвовали бы только госпитализированные пациенты, как в примере с ошибкой Берксона, мы бы нарисовали стрелку от госпитализации к S, показывая, что именно она является причиной отбора для нашего исследования. В главе 6 мы рассматривали эту ситуацию только как угрозу для валидности эксперимента. Но теперь получится воспринимать ее как возможность. Если мы поймем механизм, с помощью которого отбираются испытуемые, то преодолеем систематическую ошибку, собрав данные о правильном наборе упростителей и применив соответствующую формулу повторного взвешивания или корректировки. Работа Барейнбойма позволяет нам использовать каузальную логику и большие данные, чтобы творить чудеса, которые раньше были немыслимы.

Слова «чудеса» и «немыслимы» редко встречаются в научном дискурсе, и читатель может задаться вопросом, не слишком ли много у меня энтузиазма. Но у меня есть достойная причина, чтобы высказаться именно так. Концепция внешней достоверности как угрозы экспериментальной науке существует уже по крайней мере полвека, с тех пор как Дональд Кэмпбелл и Джулиан Стэнли признали и дали определение этого термина в 1963 году. Я разговаривал с десятками специалистов и выдающихся авторов, которые писали на эту тему. К моему удивлению, ни один из них не смог решить ни одну из «игрушечных задач», представленных на рис. 66. Я называю их игрушечными, потому что их легко описать, легко решить и легко проверить.

В настоящее время культура внешней валидности полностью сосредоточена на перечислении и категоризации угроз, а не на борьбе с ними. Более того, она настолько парализована угрозами, что сама идея нейтрализации угроз встречается с подозрением и недоверием. Специалистам, которые плохо разбираются в графических моделях, проще учесть дополнительные угрозы, чем попытаться устранить любую из них. Я надеюсь, что такие слова, как «чудеса», должны сподвигнуть моих коллег рассматривать подобные проблемы как интеллектуальные вызовы, а не причины погрузиться в отчаяние.

Я хотел бы представить читателю отчеты о случаях, когда удалось успешно справиться с задачами транспортировки и преодолеть систематическую ошибку отбора, но эти методы все еще слишком новы, чтобы получить широкое применение. Тем не менее я твердо уверен в том, что исследователи вскоре откроют для себя силу алгоритмов Барейнбойма, и тогда внешняя валидность, как и проблема осложнителей до того, утратит мистическую и устрашающую силу.

Сильный ИИ и свобода воли

Еще не просохли чернила в великом тексте Тьюринга «Вычислительные машины и разум», как научные фантасты и футурологи уже начали оценивать перспективы, связанные с думающими машинами. Порой они представляли эти машины как безвредных или даже благородных персонажей — вроде жужжащего и щебечущего R2-D2 и андроида с британскими манерами C-3PO из «Звездных войн». Но порой машины оказывались гораздо более зловещими и даже готовились уничтожить человечество, как в «Терминаторе», или поработить людей, заключив их в виртуальную реальность, как в «Матрице».

Во всех этих случаях представление об ИИ больше говорит о тревогах сценаристов или о возможностях отдела спецэффектов, чем о реальных исследованиях искусственного интеллекта. Создать его оказалось гораздо труднее, чем предполагал Тьюринг, даже несмотря на то, что чистая вычислительная мощность наших компьютеров, несомненно, превзошла его ожидания.

В главе 3 я описал некоторые причины такого медленного прогресса. В 1970-е и начале 1980-х исследованиям в области искусственного интеллекта мешала концентрация на системах, основанных на правилах. Но такие системы оказались неверным путем. Они были очень хрупкими. Любое небольшое изменение в их рабочих допущениях требовало переписывания программы. Они не могли справиться с неопределенностью или противоречивыми данными. Наконец, они не были прозрачными с научной точки зрения; нельзя было математически доказать, что они будут вести себя определенным образом, и нельзя было определить, что ремонтировать, когда они этого не делали. Не все исследователи ИИ возражали против отсутствия прозрачности. В то время в этом направлении появилось разделение на «аккуратистов» (тех, кто хотел видеть прозрачные системы с гарантированным поведением) и «нерях» (тех, кто просто хотел, чтобы системы работали). Я всегда был «аккуратистом».

Мне посчастливилось прийти в эту сферу в тот момент, когда все было готово к новому подходу. Байесовские сети были вероятностными; они могли справиться с миром, полным противоречивых и неопределенных данных. В отличие от систем, основанных на правилах, они были модульными и легко внедрялись на платформе распределенных вычислений, что обеспечивало быструю работу. Наконец, для меня (и других «аккуратистов») было важно, что байесовские сети работали с вероятностями математически надежным способом, т. е. мы знали: если что-то шло не так, ошибка была в программе, а не в наших рассуждениях.

Но даже со всеми этими преимуществами байесовские сети все еще не понимали причинно-следственных связей. Они устроены так, что информация там течет в обоих направлениях, причинном и диагностическом: дым увеличивает вероятность возгорания, а пожар — вероятность возникновения дыма. Фактически байесовская сеть не способна отличить «причинное направление». Погнавшись за этой аномалией — чудесной аномалией, как выяснилось потом, — я отвлекся от машинного обучения и перешел к изучению причинности. Я не мог смириться с мыслью, что будущие роботы не смогут общаться с нами на нашем родном причинно-следственном языке. Оказавшись в стране причинности, я, естественно, увлекся обширным спектром других наук, в которых каузальная асимметрия имеет первостепенное значение.

И вот в последние 25 лет я держался вдали от родной страны автоматизированного мышления и машинного обучения. Тем не менее издалека мне хорошо видны современные тенденции и модные направления.

В последние годы наиболее заметный прогресс в области ИИ связан с так называемым глубоким обучением, в котором используются такие методы, как сверточные нейронные сети. Эти сети не следуют

1 ... 98 99 100 101 102 103 104 105 106 ... 116
Перейти на страницу:

Комментарии
Минимальная длина комментария - 25 символов.
Комментариев еще нет. Будьте первым.
Правообладателям Политика конфиденциальности