Шрифт:
Интервал:
Закладка:
Обычно я обращаю много внимания на то, что философы хотят сказать о скользких понятиях, таких как причинность, индукция или логика научных рассуждений. У философов есть преимущество: они стоят в стороне от оживленных научных дебатов и от реалий взаимодействия с данными на практике. Они в меньшей степени, чем другие ученые, заражены антипричинными предубеждениями статистики.
Они могут привлечь традицию восприятия причинности, которая восходит к Аристотелю, и говорить о причинности, не краснея и не пряча ее за этикеткой «ассоциации».
Однако, стараясь перевести понятие причинности на язык математики, что само по себе идея, достойная похвалы, философы слишком быстро прибегли к единственному известному им языку, который может описать неопределенность, — к языку вероятности. За последний десяток лет они в основном преодолели это заблуждение, но, к несчастью, похожие идеи сейчас рассматриваются в эконометрике под названиями вроде «причинность по Грэнджеру» и «векторная автокорреляция».
И сейчас я сделаю признание: я совершил ту же ошибку. Я не всегда ставил причинность на первое место, а вероятность — на второе. Наоборот! Когда я стал работать над искусственным интеллектом в начале 1980-х годов, я думал, что неопределенность — самая важная вещь, которой не хватает ИИ. Более того, я настаивал на том, чтобы неопределенность была представлена с помощью вероятностей. Таким образом, как я объясняю в главе 3, я разработал подход к рассуждениям в условиях неопределенности под названием «байесовские сети», который имитирует, как идеализированный, децентрализованный мозг может включить вероятности в принятие решений. Если мы видим определенные факты, байесовские сети способны быстро вычислить вероятность верности или неверности определенных фактов. Неудивительно, что байе-совские сети сразу обрели популярность в сообществе ИИ и даже сегодня считаются ведущей парадигмой в искусственном интеллекте для рассуждений при неопределенности.
Хотя продолжающийся успех байесовских сетей чрезвычайно радует меня, они не смогли закрыть зазор между искусственным и человеческим интеллектом. Я уверен, что вам понятно, какой составляющей не хватает — причинности. Да, призраки причинности в изобилии витали рядом. Стрелки неизменно вели от причин к следствиям, и практики часто замечали, что диагностические системы становятся неуправляемыми, если направление стрелок меняется в обратную сторону. Но по большей части мы думали, что эта культурная привычка — артефакт былых сценариев мышления, а не центральный аспект разумного поведения.
В то время меня так опьянила сила вероятностей, что я счел причинность второстепенным понятием — просто удобством или ментальной скорописью для выражения вероятностных зависимостей и отделения релевантных переменных от нерелевантных.
В своей книге 1988 года «Вероятностные рассуждения в интеллектуальных системах» (Probabilistic Reasoning in Intelligent Systems) я писал: «Причинность — язык, на котором мы можем эффективно обсуждать определенные структуры в отношениях релевантности». Я смущаюсь, вспоминая эти слова сегодня, потому что релевантность — очевидно, понятие первого уровня. Еще ко времени, когда книга была напечатана, в глубине души я знал, что был неправ. Для моих коллег — специалистов по компьютерным наукам книга стала библией вероятностных рассуждений в условиях неопределенности, но я уже чувствовал себя еретиком.
Байесовские сети существуют в мире, где все вопросы сводятся к вероятностям или (в терминах этой главы) степеням связи между переменными; они не могли подняться на второй или третий уровни Лестницы Причинности. К счастью, потребовалось всего два небольших изменения, чтобы забраться наверх. Сначала, в 1991 году, благодаря идее сделать графику «хирургическую операцию», получилось применить его и к наблюдениям, и к интервенциям. Еще один поворот, в 1994 году, вывел их на третий уровень — они стали применимы к контрфактивным суждениям. Но все это заслуживает обсуждения ниже. Главное в следующем: в то время как вероятности кодируют наши представления о статичном мире, причинность говорит нам, как вероятности меняются (и меняются ли) в статичном мире, будь то посредством интервенции или воображения.
Глава 2. От государственных пиратов до морских свинок: становление причинного вывода
И всё-таки она вертится.
Почти два столетия одним из самых постоянных ритуалов в британской науке были вечерние лекции по пятницам в Королевском институте Великобритании в Лондоне. Многие великие открытия XIX столетия впервые были представлены публике именно там: принципы фотографии Майкла Фарадея в 1839-м; электроны в докладе Джозефа Джона Томсонав 1897-м; сжижение водорода в лекции Джеймса Дьюара в 1898-м.
Зрелищности на этих мероприятиях всегда придавали большое значение: здесь наука буквально становилась театром, и зрители, сливки британского общества, были разодеты в пух и прах (мужчины непременно в смокингах с черными галстуками). С боем часов вечернего докладчика почтительно вводили в аудиторию. По традиции он начинал лекцию тотчас же, без представления или вступления. Эксперименты и наглядные демонстрации были частью зрелища.
Вечером 9 февраля 1877 года докладчиком был Фрэнсис Гальтон, член Королевского общества, двоюродный брат Чарл-за Дарвина, известный исследователь Африки, изобретатель дактилоскопии и классический пример ученого джентльмена викторианской эпохи. Название доклада Гальтона гласило: «Типичные законы наследственности». Экспериментальный прибор, сделанный им для доклада, представлял собой странное устройство, которое он назвал квинкунксом (сейчас его часто именуют доской Гальтона). Похожее приспособление используется в американской телевикторине «Цена верна». Доска Гальтона состояла из рядов воткнутых в дерево булавок, расположенных таким образом, что любые три соседние булавки образовывали равносторонний треугольник; через отверстие сверху можно было насыпать маленькие металлические шарики, которые, ударяясь о булавки, как в пинболе, скатывались вниз, в итоге попадая в один из пазов внизу доски (см. фронтиспис). Для каждого индивидуального шарика отскоки влево и вправо от булавок по мере скатывания вниз распределяются совершенно случайно. Однако если в устройство Гальтона всыпать много шариков, становится видна удивительная закономерность: накопившиеся на дне шарики всегда образуют грубое подобие колоколообразной кривой. Пазы ближе к центру будут содержать больше всего шариков, а по мере продвижения к обоим краям доски число шариков в каждом пазу будет постепенно уменьшаться.
У такого распределения есть математическое объяснение. Путь каждого отдельного шарика подобен последовательности независимых подбрасываний монеты. Всякий раз, когда шарик сталкивается с булавкой, он отскакивает или вправо, или влево, и со стороны его движение кажется совершенно случайным. Сумма результатов — число отскакиваний вправо относительно числа отскакиваний влево — определяет, в каком из пазов шарик закончит свой путь. Согласно центральной предельной теореме теории вероятностей, доказанной в 1810 году Пьером Симоном Лапласом, любой подобный случайный процесс, эквивалентный большому числу последовательных подбрасываний монеты, приводит к точно такому же вероятностному распределению, называемому нормальным распределением (или