Шрифт:
Интервал:
Закладка:
Что, если Сёрль прав, и китайская комната не может обладать сознанием? Многие критики сосредоточиваются на принципиальном моменте рассуждений: на том, что человек, перебирающий символы в комнате, не понимает китайского языка. Для них главное не в том, понимает ли кто-нибудь в комнате китайский, а в том, понимает ли китайский система в целом: человек плюс карточки, книга, комната и т. д. Взгляд, согласно которому система как целое реально понимает происходящее и обладает сознанием, получил известность как «ответ системы»[24].
Мне представляется, что «ответ системы» правилен в одном отношении и неправилен в другом. Верно, что по-настоящему вопрос о сознании машин состоит в том, обладает ли сознанием машина в целом, а не один ее компонент. Представьте, что вы держите чашку горячего зеленого чая. Ни одна отдельно взятая молекула в чае не является прозрачной, но в целом чай прозрачен. Прозрачность – свойство некоторых сложных систем. В том же ключе можно сказать, что ни один отдельно взятый нейрон и ни одна отдельная область мозга не реализует сама по себе тот сложный тип сознания, которым обладает личность. Сознание – свойство очень сложных систем, а не фантом внутри более крупной системы вроде Сёрля в комнате[25].
Согласно рассуждениям Сёрля, система не понимает китайского, потому что он лично не понимает этого языка. Иными словами, целое не может обладать сознанием, поскольку сознанием не обладает какая-то его часть. Но такие рассуждения ошибочны. Мы уже привели пример системы, которая понимает, хотя часть ее этого понимания лишена: это человеческий мозг. Порядка 80 % нейронов мозга находится в мозжечке, но мы знаем, что для сознания он не нужен: люди, родившиеся без мозжечка (а такие есть), обладают сознанием. Готова спорить, что самоощущения мозжечка не существует.
Однако «ответ системы» кажется мне ошибочным вот в чем: из него следует, что китайская комната как система обладает сознанием. Невозможно представить, чтобы такая примитивная система, как китайская комната, обладала сознанием, поскольку сознающие себя системы намного сложнее. Человеческий мозг, например, включает в себя 100 млрд нейронов и более 100 трлн нейронных связей, или синапсов (кстати говоря, это в 1000 раз больше количества звезд в галактике Млечный Путь). По сравнению с невероятной сложностью человеческого мозга или даже сложностью мозга мыши китайская комната в лучшем случае детские кубики. Даже если сознание – это системное качество, не все системы им обладают. К тому же и базовая логика рассуждений Сёрля ущербна, ибо он не показал, что сложный ИИ не сможет обладать сознанием.
В целом можно сказать, что китайская комната не укрепляет позиции биологического натурализма. Но если у нас пока отсутствуют убедительные аргументы в пользу биологического натурализма, то нет и убойного аргумента против него. Как объясняется в главе 3, пока слишком рано говорить о том, возможно ли искусственное сознание. Но прежде чем я обращусь к этой теме, рассмотрим вторую сторону медали.
Технооптимизм в отношении машинного сознания
В двух словах, технооптимизм в отношении машинного сознания (или просто «технооптимизм») – это уверенность в том, что если человечество создаст развитый универсальный ИИ, то искины будут обладать сознанием. Мало того, эти искины, возможно, будут вести более сложную и богатую оттенками ментальную жизнь, чем люди[26]. В настоящее время технооптимизм пользуется довольно большой популярностью, особенно среди трансгуманистов, части ИИ-специалистов и научных средств массовой информации. Но на мой взгляд, технооптимизму, как и биологическому натурализму, недостает теоретической поддержки. Хотя может показаться, что он имеет в своей основе определенные представления о разуме из области когнитивистики, на самом деле это не так.
Технооптимизм действительно вдохновляется когнитивистикой – междисциплинарной областью знания, изучающей мозг. Чем больше данных о мозге получают специалисты по когнитивистике, тем больше кажется, что с практической точки зрения мозг лучше всего представлять как процессор для обработки информации и что все мыслительные функции имеют вычислительный характер. Вычислительная теория разума стала в когнитивистике чем-то вроде исследовательской парадигмы. Это не означает, что мозг имеет архитектуру стандартного компьютера. Более того, конкретный вычислительный формат мозга служит темой бесконечных споров. Но в настоящее время вычислительная теория разума обрела более широкий смысл, включающий в себя алгоритмическое описание мозга и его частей. В частности, можно объяснить когнитивную или перцептивную способность, например внимание или кратковременную память, путем ее разложения на взаимодействующие друг с другом причинно связанные части, а затем описания каждой части при помощи собственного алгоритма[27].
Сторонники вычислительной теории разума с их упором на формальное алгоритмическое описание ментальных функций склонны признавать возможность машинного сознания. Они предполагают, что другие типы субстратов тоже способны производить вычисления того рода, которыми занимается мозг. То есть они, как правило, считают мышление субстратонезависимым.
Поясню значение этого термина. Предположим, вы планируете новогодний праздник. Пригласить гостей на этот праздник и сообщить им необходимые подробности можно самыми разными способами: вы вольны сделать это лично, письмом, по телефону и т. д. Мы можем обособить носителя информации (субстрат) о празднике от самой информации о нем. В аналогичном ключе можно предположить, что сознание способно существовать на разных субстратах. Не исключено, по крайней мере в принципе, что оно присуще не только биологическому мозгу, но и системам, основанным на других материалах, таких как кремний. Это и называется «субстратонезависимостью».
Такая точка зрения позволяет принять позицию, которую я называю вычислительной теорией сознания. Эту теорию можно сформулировать следующим образом:
Вычислительная теория сознания: сознание можно объяснить с вычислительной позиции; более того, именно вычислительные характеристики системы определяют природу ее осознанных переживаний и то, имеет ли она их.
Представьте, как дельфин скользит в воде в поисках пищи. Если верить сторонникам вычислительной теории, то именно внутренние вычислительные состояния дельфина определяют характер его осознанных переживаний, таких как ощущение скольжения тела в воде и вкус добычи. Вычислительная теория сознания гласит, что если какая-то другая система S2 (с искусственным мозгом) обладает в точности такой же вычислительной конфигурацией и состояниями, включая сигналы, поступающие в ее сенсорный аппарат, то она должна обладать сознанием так же, как сам дельфин. Чтобы это произошло, ИИ должен в сходных обстоятельствах демонстрировать те же модели поведения, что и дельфин. Более того, он должен иметь те же внутренне связанные психологические состояния, что и дельфин, включая чувственные переживания.
Назовем систему, в точности отражающую, таким образом, организацию некоторой обладающей сознанием системы, точным изоморфом (или