Шрифт:
Интервал:
Закладка:
Попробуем просто оценить, насколько непостижимо сознание, даже в случае человека.
Сознание искина и трудная проблема
Философ Дэвид Чалмерс сформулировал «трудную проблему сознания», задав вопрос: почему вся информация, которая обрабатывается в мозге, должна ощущаться внутренне определенным образом? Почему нам необходимы осознанные переживания? Чалмерс подчеркивал, что эта проблема, судя по всему, не имеет чисто научного ответа. Например, мы можем разработать всеобъемлющую теорию зрения и выяснить в деталях, как обрабатывается в мозгу зрительная информация, но при этом все равно не понять, почему вся информация, обрабатываемая зрительной системой, непременно сопровождается субъективными переживаниями. Чалмерс противопоставляет трудную проблему сознания тому, что он называет «легкими проблемами», которые связаны с сознанием и имеют, в принципе, научные ответы (это может быть механизм внимания, то, как мы распределяем все по категориям или реагируем на раздражители)[20]. Конечно, эти научные проблемы сложны, просто Чалмерс называет их «легкими», чтобы противопоставить «трудной проблеме сознания», которая, как он считает, никогда не получит чисто научного решения.
Мы же теперь сталкиваемся еще с одним непостижимым вопросом, имеющим отношение к сознанию, – со своеобразной «трудной проблемой» машинного сознания, если хотите.
Проблема искусственного сознания: должна ли обработка информации искином ощущаться определенным образом внутренне?
Развитый искин должен решать задачи, которые не могут решить даже умнейшие из людей, но будет ли обработка информации в нем сопровождаться какими бы то ни было субъективными ощущениями?
Проблема искусственного сознания – это не просто трудная проблема Чалмерса в приложении к ИИ. Мало того, между двумя проблемами существует принципиальная разница. Трудная проблема Чалмерса априори предполагает, что мы обладаем сознанием. В конце концов, каждый из нас, опираясь на самоанализ, может сказать, что он сейчас в сознании. Вопрос в том, почему мы обладаем сознанием. Почему некоторые результаты обработки информации мозгом ощущаются внутренне определенным образом? Проблема же искусственного сознания состоит в том, способен ли в принципе ИИ, созданный на основе других материалов, таких как кремний, обладать сознанием. Здесь не предполагается заранее, что ИИ обладает сознанием, – в этом и состоит вопрос. Это разные проблемы, правда, у них есть кое-что общее: не исключено, что их невозможно решить при помощи одной только науки[21].
При обсуждении проблемы искусственного сознания доминируют, как правило, две противоположные позиции. Сторонники первой – биологического натурализма – считают, что даже самые продвинутые типы искинов будут лишены внутренних переживаний[22]. Способность обладать сознанием – уникальное свойство биологических организмов, так что даже сложные андроиды и сверхразумы не смогут осознать себя. Представители второй позиции, которую я буду называть «технооптимизмом в отношении искусственного сознания» (или «технооптимизмом» – для краткости), отрицают биологический натурализм. Опираясь на эмпирические работы в области когнитивистики, они утверждают, что сознание – это полностью вычислительный процесс и, соответственно, сложные вычислительные системы будут испытывать внутренние переживания.
Биологический натурализм
Если взгляды сторонников биологического натурализма справедливы, то романтические отношения или дружба между человеком и искином, таким как Саманта в уже упоминавшемся фильме «Она», окажутся безнадежно односторонними. ИИ, возможно, будет умнее людей и даже сможет изобразить сочувствие или романтический интерес, как та же Саманта, но внутренних переживаний у него будет не больше, чем у вашего нынешнего ноутбука. Более того, мало кто из людей захочет соединиться с Самантой в облаке. Загрузка своего мозга в компьютер будет означать отказ от собственного сознания. Технологии способны на многое, и не исключено, что ваши воспоминания можно будет аккуратно и точно продублировать в облаке, но этот поток данных, лишенный внутренней жизни, уже не будет вами.
Сторонники биологического натурализма полагают, что сознание зависит от специфической химии биологических систем, что это особое свойство или характеристика, которой наши тела обладают, а машины – нет. Но такое свойство до сих пор не обнаружено, и, даже если бы оно вдруг нашлось, это не означало бы, что ИИ никогда не сможет обрести сознание. Может оказаться, что в машинах сознание просто порождается другим свойством или несколькими свойствами. Как я покажу в главе 4, чтобы сказать, обладает ли ИИ сознанием, необходимо смотреть не только на химические свойства конкретных соединений и искать ключи в поведении искина.
Другая линия аргументов тоньше, и отмахнуться от нее сложнее. Она опирается на знаменитый мысленный эксперимент под названием «Китайская комната», предложенный философом Джоном Сёрлем. Сёрль просит представить, что он заперт в комнате. В комнате есть окошко, через которое ему передают карточки со строками китайских иероглифов. Но Сёрль не знает китайского, хотя ему и дали книгу правил (на английском языке), с помощью которой он может расшифровать надпись и написать ответ. Итак, Сёрль в комнате и ему вручают карточку с посланием на китайском языке. Он сверяется со своей книгой, выписывает найденные в ней иероглифы и возвращает карточку через второе окошко в стене[23].
Вы можете спросить: какое отношение все это имеет к ИИ? Обратите внимание, что с позиции человека вне комнаты ответы Сёрля неотличимы от ответов человека, знающего китайский язык. Однако сам он не понимает смысла того, что написал. Как компьютер, он дает ответы на вопросы, перебирая формальные символы. Комната, Сёрль и карточки вместе образуют своеобразную систему обработки информации, но сам он не понимает ни слова по-китайски. Каким же образом обработка данных в безмозглых элементах, ни один из которых не понимает языка, может породить, хотя бы в принципе, нечто столь великолепное, как понимание или переживание? По Сёрлю, этот мысленный эксперимент позволяет предположить, что, каким бы разумным ни казался компьютер, на самом деле он не мыслит и не понимает. Он всего лишь бездумно манипулирует символами.
Строго говоря, этот мысленный эксперимент служит скорее аргументом против машинного понимания, а не машинного сознания. Но Сёрль делает еще один шаг и предполагает, хотя не всегда явно говорит об этом, что если компьютер неспособен на понимание, то он не может претендовать и на сознание. Для определенности предположим, что он прав и понимание действительно тесно связано с сознанием.