Зарегистрироваться

Аргумент китайской комнаты

Категории Философия сознания | Под редакцией сообщества: Философия

Китайской комнаты аргумент (The Chinese Room Argument) – мысленный эксперимент, презентованный Дж. Сёрлом в 1980 г. в статье «Сознания, мозги и программы» (Minds, Brains, and Programs) и задуманный для опровержения концепции «сильного искусственного интеллекта».

Данная концепция исходит из того, что человеческий интеллект можно представить в виде совокупности алгоритмов, допускающих программную реализацию. Инсталляция соответствующей программы позволит утверждать, что система, на которой она установлена, наделена интеллектом, эквивалентным человеческому. Сёрл, однако, предлагает человеку встать на место компьютера и убедиться, что исполнение программ, симулирующих когнитивные способности людей – создание которых, как сторонник «слабого искусственного интеллекта», он считает принципиально возможным – не гарантирует реального понимания в «человеческом» смысле.

Детали этого мысленного эксперимента по-разному излагались Сёрлом, но суть оставалась неизменной: некий человек, не знающий китайского языка, получает в свое распоряжение программу, позволяющую выдавать внешне осмысленные ответы на китайском языке на вопросы по-китайски. Если изолировать этого человека от собеседников (так, чтобы они не видели, что он пользуется программой), то они будут пребывать в убеждении, что он понимает китайский. Однако с позиции самого человека в Китайской комнате это, утверждает Сёрл, не так. Ведь программа, которой он пользуется, указывает ему лишь то, что одним символам (вопросам) надо ставить в соответствие другие (ответы). Программа исключительно синтаксична, т. е. в ней принимается во внимание лишь форма, начертание символов. Значение их никак не раскрывается. Человек, работающий с такой программой, видит непонятные значки и ставит им в соответствие другие значки. И хотя его «китайские» собеседники за пределами комнаты думают, что он ведет с ними осмысленный разговор, на деле он лишь механически соединяет загадочные иероглифы. Человеческое понимание предполагает не только синтаксические правила, но и семантические отсылки. Поскольку их нет в программе, человек, инсталлирующий ее, не обладает реальным пониманием. Не обладает им, стало быть, и компьютер, роль которого играет человек в Китайской комнате. Таким образом, даже если компьютер проходит тест Тьюринга, т. е. демонстрирует вербальное поведение, неотличимое от человеческого, из этого не следует, что он обладает подлинным интеллектом. Аргумент Сёрла вызвал множество откликов и возражений.

Сторонники сильного ИИ выдвигали тезис, что хотя человек в Китайской комнате действительно не понимает по-китайски, пониманием может обладать комната в целом, рассматриваемая как система. Сёрл отвечал на это, что от комнаты вообще можно избавиться, если допустить, что человек из его эксперимента заучивает программу и запоминает все иероглифы – но ведь понимания при этом так и не возникает.

Другое популярное возражение обращает внимание на то, что Китайская комната лишена перцептивной и деятельной связи с миром. Если превратить ее в Китайского робота, человек, реализующий соответствующую когнитивную программу, будет, считают его сторонники, обладать реальным пониманием. Сёрл, однако, пытается показать, что превращение Китайской комнаты в Китайского робота ничего не меняет. Получая китайские вопросы, касающиеся, к примеру, окружения робота, человек в нем отдает ему команды (прописанные в программе в виде последовательностей иероглифов), робот дешифрует их, получает информацию из своего окружения, а затем вновь зашифровывает их в китайские символы, которые и выдает испытуемый. Несмотря на взаимодействие всей этой системы с окружением и внешне осмысленные реакции на него (позволяющие роботу проходить «тотальный тест Тьюринга», т. е. не только говорить, как человек, но и вести себя как человек), человек в Китайском роботе по-прежнему находится в полном неведении.

Критики Сёрла, впрочем, отмечают, что его положение об одинаковости условий мысленных экспериментов с Китайской комнатой и Китайским роботом не очевидно: в случае с комнатой находящемуся в ней человеку известна вся программа, симулирующая его языковую компетентность, тогда как в случае с роботом часть его программы, отвечающая за расшифровку китайских команд и обработку перцептивной информации остается неизвестной испытуемому. Если бы этот человек знал указанные фрагменты программы, он получал бы семантическую информацию и начал бы понимать китайский язык – что рушит логику аргумента Сёрла. С этим наблюдением связан еще один аспект критики: Сёрл допускает, что Китайская комната в описанном им варианте в принципе могла бы проходить тест Тьюринга. Но это можно оспорить: непонятно, как в программе Китайской комнаты могут быть прописаны правдоподобные ответы на фактические вопросы, вроде вопроса «сколько сейчас времени?» и т. п. Невозможность человека в Китайской комнате (но не в Китайском роботе) ответить на такие вопросы выдаст его непонимание китайского языка и компьютерную основу его действий – тест Тьюринга будет провален.

Несмотря на множество возражений, а отчасти и благодаря им, Китайская комната оказала мощное стимулирующее воздействие на дискуссии по проблемам искусственного интеллекта и философии сознания.

Рекомендуемая литература

Views into the Chinese Room, ed. by J. Preston and M. Bishop. N. Y., 2002.

Эта статья еще не написана, но вы можете сделать это.