Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






ПЕРСПЕКТИВЫ 3 страница






Значение систем продукций состоит в возможности выполнения вычислений, что, по предположению, составляет суть процессов познания

12 Пылишин ошибочно описывает здесь свойства феноменального пространства, по­скольку последнее структурировано скорее топологически, а также зависит от присут­ствующих в нем объектов, отношения к ним и типичных условий жизнедеятельности (см. 6.3.2). Его анализ находится в противоречии не только с экологическим (см. 9.3.1) и лин­гвистическим (Talmi, 1983) анализом восприятия, но и с современной физикой. Так, в теории относительности Эйнштейна масса вещества в некоторой области пространства 302 меняет его геометрию, определяя степень локальной искривленности пространства.


у человека. Далее, они позволяют записывать информацию однородно, являясь наиболее гомогенной формой организации программ из всех, известных на сегодняшний день. Так как каждая продукция не зависит от других, это облегчает дополнение системы новыми продукциями, выявляемыми при опросе и наблюдении за поведением испытуемых. Система продукции предполагает существование рабочей памяти, со­держащей описание условий актуально реализуемых продукций и их результатов, а также операций сравнения и идентификации, нахожде­ния подпрограмм и контроля за их развертыванием. Эти операции в системах продукции крайне просты, поэтому общее количество единиц оказывается в пределах «магического числа». Долговременная память интерпретируется как хранилище массива продукций, то есть связок «условие—действие». Наконец, работа моделей определяется балансом информации, поступающей из внешнего мира («внешней памяти») и создаваемой продукциями. Возникает известная непредсказуемость «поведения», столь характерная и для человека.

В области мышления этот этап исследований открыла монография Ньюэлла и Саймона (Newell & Simon, 1972), в которой они обобщили опыт моделирования доказательства геометрических теорем, решения криптоарифметических задач и игры в шахматы. Основным допущени­ем этой работы является то, что мыслительные процессы — это процес­сы вычислений, а основным выводом — что по своей организации они являются системой продукции. С помощью систем продукции было проведено моделирование процессов решения множества простых по­знавательных задач. Так, Д. Массаро (Massaro, 1975) создал программы последовательного исчерпывающего, последовательного самооканчива­ющегося и контентно-адресуемого поиска в памяти. В последнем случае центр тяжести обработки переносится на этап фиксации элементов по­ложительного множества, каждый из которых заносится в одну из спе­циально пронумерованных ячеек памяти и снабжается маркером ответа. При предъявлении стимула информация о нем направляется прямо к соответствующей ячейке, вызывая записанный там ответ. В памяти мо­дели, следовательно, могут храниться не только элементы, но и пары «стимул-ответ». Этот же принцип был реализован в другой программе (Newell, 1974a), моделирующей решение задач поиска в памяти, непос­редственного запоминания, задач абстрагирования и выполнения ариф­метических вычислений.

Помимо этой и последующих работ Ньюэлла, Саймона и их коллег (например, Newell, 1990), процедурная репрезентация знания является основой большинства глобальных моделей понимания. Дж.Р. Андерсон (2002) использует ее в модели ACT-R, память которой разбита на две примерно равные части: систему пропозиций (декларативная часть) и систему продукций (см. 6.4.1 и 8.1.1). Такой диапазон моделей иллюст­рирует возможности систем продукции, допускающих простое расшире­ние набора операций и выделение их общих звеньев. В других моделях соотношение оказывается иным, вплоть до отказа от процедурного


знания. Это отражает ведущиеся в информатике споры о сравнительных достоинствах этих двух форм репрезентации13. Декларативные системы более обозримы и доступны для внешнего контроля, поэтому здесь лег­че извлекать нужную порцию сведений. Независимость от контекста позволяет также вводить общие алгоритмы расширения базы данных. Что касается процедурных систем, то они более эффективны, когда ис­пользование операций удается связать с тем специфическим контекстом (условиями), в котором они заведомо ведут к цели.

Психологически правдоподобное решение этой проблемы состоит в отказе от жесткого различения данных и операций. Например, в ран­ней системе представления знаний LNR, разработанной Д. Норманом, Д. Румелхартом и их сотрудниками, одна и та же информация может по­переменно выступать то в одном, то в другом качестве. Как отмечают эти авторы, «то, что мы знаем, включено в то, что мы умеем делать» (Rumelhart & Norman, 1981). Обобщенные описания знания — схемы — это процедуры, сканирующие сенсорную информацию в поисках приме­ров репрезентированных ими понятий. Внутренняя структура схем при этом иррелевантна, существен лишь операциональный аспект. Деклара­тивный аспект важен в тех случаях, когда появляется необходимость ас­симиляции нового знания либо имеющиеся знания должны быть приме­нены в новых условиях. Подобный перенос навыка решения, сравнение и обучение осуществляются в современных моделях (таких как LISA и EMMA — см. 8.2.1) прежде всего по типу решения задач на аналогии.

В качестве простейшей иллюстрации рассмотрим процедурное опре­деление функции, извлекающей из памяти имена всех родителей инди­вида «х»:

родитель (дс): возврат узлов от «х» через «родитель».

Функцию ребенок (дг) можно определить как аналогичную функции родитель (jc) с «ребенок» вместо «родитель». Это приведет к появлению функции, извлекающей набор узлов семантической памяти, доступных от узла «х» с помощью указателя «ребенок». Если данные хранятся упо­рядоченным образом, то в результате можно получить список всех детей индивида «л». Если существует функция мужчина (дс), которая, действуя как фильтр, отбирает из множества «jc» тех индивидов, про которых мож­но сказать, что они являются мужчинами, то новую функцию отец (х) можно определить так:

отец (х) возврат мужчина (родитель (х))

Тогда при наличии функции женщина (х) (ее, разумеется, можно вве­сти по аналогии с функцией мужчина (х)) легко создать новые функции мать (jc), дочь (х), сын (дс), бабушка (дс), внучка (дс) и т.д., используя такие структурные отношения, как «мать» подобно «отец» с «женщина» вмес­то «мужчина», «дочь» подобно «мать» с «ребенок» вместо «родитель», «бабушка» подобно «мать» с родитель (дс) вместо «х» и т.п. Иными слова­ми, декларативное описание отношений родства удается построить на основе двух или трех исходных процедур.

13 Отголоском этих споров является тезис Дж.Р. Андерсона о принципиальной произ- 304 вольности моделей в когнитивной науке — его известная «теорема мимикрии» (см. 9.1.2).


Полезность подобного гибкого совмещения декларативных и проце­дурных способов описания материала также удается показать в рамках исследований по процедурной семантике, для которых характерно пони­мание значения как системы операций, позволяющих установить пер­цептивные референты понятия и возможности его использования. Хо­рошим примером здесь может служить использование понятийного знания для порождения новых лексических единиц, которое обсужда­лось нами в предыдущих главах (см. 6.1.1 и 7.3.2).

К сожалению, примеров учета функциональных возможностей раз­личных форм репрезентации знания в вычислительном подходе не так уж много. Так, в период расцвета глобальных моделей понимания рецен­зенты единодушно отмечали их слабую связь с эмпирическими данными (см. 6.4.1 и 8.1.1). Поскольку языки программирования и аналогичные формально-логические системы достаточно мощны, чтобы описать лю­бой массив данных, а, с другой стороны, своеобразие их внутренней грамматической организации сводит возможность правильного предска­зания новых психологических результатов к случайности, то и схема ги-потетико-дедуктивного исследования оказывается не достижением, а помехой. Возможно, именно поэтому наиболее резкая критика чрезмер­ного обилия фактов в когнитивной психологии и иррелевантности экс­периментов исходит от представителей вычислительного подхода.

С практической точки зрения, наиболее важным развитием послед­них десятилетий стало создание экспертных систем — программных сис­тем, моделирующих в рамках определенной проблемной области реше­ние задач экспертами (см. 8.3.3). Экспертные системы состоят из двух основных компонентов: базы знаний и так называемой машины вывода, то есть собственно решателя задач. Базы знаний строятся при этом как про­цедурно-декларативные репрезентации, включающие факты и правила. В качестве технического, человеко-машинного «изделия» полноценная экспертная система дополнительно включает интерфейс пользователя и интерфейс разработчика (инженера по знаниям). Наконец, чрезвычайно важным оказалось присутствие специальной подсистемы, которая дава­ла бы пользователю правдоподобное обоснование предлагаемых реше­ний. Общей тенденцией стала постепенная трансформация экспертных систем в системы поддержки решений. К числу основных сфер примене­ния этой основанной на формальном представлении знаний (knowledge-based) технологии относятся медицина, геология, юриспруденция, пси­хологическая диагностика, а также учет и логистика, прежде всего в области электронной коммерции и банковского дела.

По утверждению разработчиков, экспертные системы в ряде случа­ев демонстрируют уровень знаний, равный среднему уровню знаний специалистов в соответствующих областях (Джексон, 2001). Более того, имеются примеры использования этой технологии для моделирования творческих достижений (как в случае системы поддержки индуктивных



умозаключений BACON, которая смогла на основании заранее выявлен­ных, кодированных и введенных в компьютер данных «повторить» от­крытие законов Галилея, Кеплера и Ома). Самостоятельное значение имеет использование программ компьютерной графики в качестве ин­струмента визуализации, позволяющих человеку-эксперту делать новые открытия в медицине, геологии и математике, в частности, в теории чи­сел (Зенкин, 1996).

Но все же, как правило, в большинстве случаев традиционные эк­спертные системы остаются на уровне прототипов, не превращаясь в коммерческий продукт. Их применимость ограничивается проблемой юридической ответственности, как в случае неправильно поставленно­го медицинского диагноза, а также недостаточной гибкостью. Одной из неприятных особенностей практически всех систем является возника­ющее вблизи границ области экспертизы «обвальное» ухудшение ре­зультатов. Надежды возлагаются поэтому на гибридные архитектуры, прежде всего на искусственные нейронные сети. Последние демонстри­руют при ухудшении условий работы плавное снижение эффективнос­ти (англ. graceful degradation — см. 2.3.2).

Вопрос состоит в том, можно ли, в свете этих данных, считать пра­вильным вычислительное понимание мышления и, шире, познания? В отношении самих процессов, ведущих к решению, в этом нет никакой уверенности. В литературе сосуществует множество различных систем описания вычислений, и они постоянно развиваются, как, например, в случае возникших сравнительно недавно языков объектно-ориентиро­ванного программирования {ООП). Основное в этих языках — сохранение внешней формы при изменении свойств: программные структуры меня­ют свое содержание в зависимости от того, какие «объекты» (либо, в бо­лее современной, но менее адекватной терминологии, «классы») под­ставляются в них14. Однако в целом развитие логических оснований вычислительного подхода имеет собственную динамику. Оно направле­но не на симуляцию человеческих достижений, а на их дополнение, причем акцент делается на способности вычислительных устройств к чрезвычайно быстрому перебору вариантов15.

14 При этом на экране может оставаться та же привычная картинка, что, конечно же,
удобно для человека-пользователя. ООП привлекательно тем, что оно сделало шаг на­
встречу простейшим аксиомам психологии человека. Внешняя идентичность при изме­
нении функционального содержания соответствует, в частности, смене социальных ро­
лей одной и той же личности. Интересно, что для этого шага создателям ООП пришлось
отказаться от числовых структур как основы и перейти к понятиям более высоких типов.
Если в обычном программировании преобразуются данные, то в ООП преобразуются
функции и действия над «объектами».

15 Исследователям всегда было свойственно считать достигнутый в их время техни­
ческий аппарат идеальным средством объяснения функционирования мозга и психики
(Бернштейн, 2003). В начале 20-го века такой моделью считалась телефонная станция,
позднее возникли аналогии с радиопередачей, голографией, архитектурой компьютера и

306 все новыми разновидностями компьютерных программ. Трудно сказать, какие возмож-


С точки зрения сравнения результатов искусственных и естествен­ных интеллектуальных достижений, ответ, несомненно, выглядит ина­че. В ряде случаев, как, например, в случае компьютерных программ игры в шахматы, программные системы явно превзошли человека16. Это развитие было предсказано свыше полувека назад. В 1950 году Алан Тьюринг опубликовал статью «Вычислительные машины и интеллект», где он высказал предположение, что к концу 20-го века достижения программируемых компьютеров сравняются с результатами решения задач человеком (см. 2.1.1).

В той же классической статье Тьюрингом была описана процедура возможной проверки такого соответствия. Эта процедура известна се­годня как тест Тьюринга. Если в диалоге с невидимым партнером чело­век не может достоверно определить, имеет ли он дело с собратом по ра­зуму или же с вычислительным устройством, то последнее успешно выдержало этот тест. В ряду серьезных и полусерьезных попыток прове­дения теста Тьюринга выделяются эксперименты известного критика ра­бот в области искусственного интеллекта Дж. Вейценбаума (1982) с отно­сительно простой, включавшей всего лишь несколько сот строчек текста программой ELISA, которая позволяла длительное время поддерживать заочный диалог с человеком. При этом она производила на собеседников впечатление живого человека. Позднее (и опять же скорее в критических целях) Вейценбаум адаптировал свою программу для целей роджериан-ской психотерапии, назвав ее DOCTOR. Многие участники опытов Вей­ценбаума не только не чувствовали дискомфорта, но и предпочитали иметь дело с компьютером, а не с реальным психотерапевтом.

9.2.2 Философия искусственного интеллекта

Слабость теста Тьюринга состоит в том, что это бихевиористский тест. Для когнитивной науки важен анализ интенций и ментальных репре­зентаций, обеспечивающих решение задачи. Неоменталистским отве­том на тест Тьюринга и успехи вопросно-ответных программ стал мыс­ленный эксперимент, описанный американским философом Джоном Сёрлом (Searle, 1991). Он предложил представить человека, находяще­гося в закрытом помещении. Через щель в комнату поступают письмен­ные вопросы на китайском языке, о котором этот человек не имеет ни

ности для аналогий могут возникнуть в среднесрочной перспективе (см. 9.4.3). С задачей когнитивного моделирования в настоящее время непосредственно связано только разви­тие в области искусственных нейронных сетей (см. 2.3.3).

·" В 1997 году компьютерная программа впервые выиграла партию у чемпиона мира по
шахматам. Интересно, что соответствующие программмы игры го далеко не столь сильны.
Важнейшей причиной этого является более высокая комбинаторная сложность этой игры,
ставящая перед компьютером (и программистом) проблему практической вычислимости. 307



малейшего представления. Ему также не известна тематика вопросов. К счастью, при нем находится достаточно полный китайско-китайский толковый словарь. Найдя в словаре иероглифы, соответствующие тол­кованию иероглифов в записках, герой этой истории записывает их в качестве ответа и передает обратно через дверную щель. Для внешнего наблюдателя весь процесс может выглядеть как участие закрытого в «ки­тайской комнате» человека в дискуссии экспертов... по истории сред­невекового Китая. Проблема, однако, состоит в том, что, симулируя ра­боту компьютера и практически решая коммуникативную задачу, человек в комнате совершенно не осознает интенциональное содержа­ние своей деятельности.

Это феноменологическое рассуждение (если нет интенционально-сти, то нет сознания, а следовательно, нет и человеческого мышления) служит одним из нескольких обсуждаемых в литературе радикальных аргументов против применения вычислительного подхода в психологии и против самой возможности построения искусственного интеллекта. Но аргументация Сёрла не безупречна. Слабым ее пунктом является рассмотрение заведомо ограниченной системы индивидуального созна­ния и мышления. Хотя человек в комнате, по определению, ничего не знает о содержании принимаемых и передаваемых сообщений, нельзя отрицать, что фактической основой его работы служит глубокое пони­мание языка и тематики обсуждения создателями толкового словаря и участниками ведущейся дискуссии. Используя нейрокогнитивную ана­логию, можно уподобить сёрловского оператора частной подсистеме большого мозга. Так, зона Брока, играя важную роль в экспрессивном речевом общении (см. 7.3.3), тоже, по-видимому, «не понимает» наме­рений и содержания речи своего обладателя.

В последние десятилетия стали появляться примеры, как бы зер­кально симметричные аргументу Сёрла. Речь идет об успешном реше­нии задачи компьютером при отсутствии понимания природы этого решения человеком. Самым известным примером такого рода являет­ся доказательство теоремы о четырех красках. Еще в середине 19-го века было высказано предположение, что для раскраски карты таким образом, чтобы две имеющие общую границу области (страны) имели разную окраску, должно быть достаточно четырех красок. Несмотря на усилия выдающихся математиков, эта теорема не могла быть доказана вплоть до 1977 года, когда ее «доказала» относительно простая компью­терная программа, написанная К. Аппелем и В. Хакеном. Путем исчер­пывающего перебора множества возможных сочетаний границ, про­грамма продемонстрировала, что во всех случаях четырех красок действительно оказывается достаточно. Профессиональное сообщество математиков отнеслось к этому событию с большой долей скепсиса, так как, во-первых, остались непонятными концептуальные основания данного вывода, а во-вторых, любая программа, как было ясно уже в то время (до появления продукции фирмы Microsoft), может содержать


ошибку. Собственно «человеческое» доказательство теоремы появилось лишь спустя 20 лет, в 1997 году (MacKenzie, 2001).

Ситуации непонятности машинного решения для человека возника­ют, например, при распознавании объектов с помощью искусственных нейронных сетей, поскольку характер изменений в сетях в процессе обу­чения слишком сложен, чтобы его можно было затем проследить анали­тически. Более того, эпизоды непонимания содержания производимых компьютерными системами операций и вытекающих из них выводов весьма частотны в реальной жизни — как в профессионально-техноло­гическом контексте (проблема ситуативного сознания у пользователей полуавтоматизированных систем — см. 2.1.2), так и во все большей мере в повседневных бытовых условиях. Непонимание возникает здесь, в ко­нечном счете, между пользователем и разработчиком технических сис­тем. Но стремительное усложнение этих систем и их намечающееся ав­тономное взаимодействие — автомобилей между собой и со знаками дорожного движения, домашних приборов с системой энергообеспече­ния дома и т.д. — заставляет и самих разработчиков опираться на ком­пьютерные средства поддержки программирования и принимаемых при этом решений (как в случае систем CADComputer Aided Design).

Что касается теоретических обобщений этих результатов, то скла­дывается впечатление, что часто они имеют характер «бракосочетания сомнительной эпистемологии и IBM». Унаследованный от формальной логики и вычислительной лингвистики интерес к играм с условными правилами, применяемым к дискретным символам, а также влияние философских взглядов Декарта и особенно Юма привели к тому, что ос­новной стратегией исследования в когнитивной науке был объявлен методологический солипсизм (см. 1.1.2). Считая Юма первым подлин­ным представителем когнитивной науки, Фодор (Fodor, 1980) утверж­дает, что если нет различия между мыслью о предмете и просто мыслью, то предмет можно игнорировать. Этот вывод имеет определенные ос­нования, так как при построении систем искусственного интеллекта наиболее существенными вопросами являются их непротиворечивость и программная реализуемость, а не соответствие реальным прототипам.

Основной задачей вычислительного подхода было объявлено изу­чение «языка мысли» (language of thought), предикаты которого, как считает Фодор (Fodor, 1978; Ray, 2003), являются врожденными и ле­жат в основе не только усвоения родного языка, но и вообще всех форм познавательной активности17. Язык мысли («менталезский язык»)

17 Критикуя с этих позиций работы Л.С. Выготского, Фодор (Fodor, 1972), похоже, не
замечает трудностей, в которых оказывается его собственная концепция. Укажем одну из
них. Предположение о существовании «языка мысли», кроме спорного утверждения о
его врожденности, содержит опасность бесконечного регресса. Если «язык мысли» — это
нечто вроде автокода вычислительного устройства или же своеобразный interlingua, опос­
редующий коммуникацию перцептивного и вербального знания, то, по-видимому, необ­
ходимы специальные языки-посредники для перевода информации с «языка восприя­
тия» и с естественного языка на «язык мысли». 309


включает, наряду с логическими суждениями, пропозициями, также и пропозициональные установки, то есть метаоператоры субъективного от­ношения к ним, представленные ментальными предикатами (или «пси­хологическими глаголами») «хотеть», «знать», «думать», «предпола­гать», «надеяться», «бояться» и т.д. (см. 6.3.1 и 7.4.1). Вопрос о ложности или истинности содержания пропозиций в подобных конструкциях приобретает подчеркнуто субъективный характер. Например, если не­кий персонаж по имени Петя «считает, что идет дождь», то справед­ливость этого утверждения остается (в первом приближении — см. 9.4.1) на совести Пети.

Отметим очевидную неполноту этого подхода. В качестве основы мышления человека здесь рассматривается исключительно важное, но все же явно ограниченное подмножество средств двух высших уровней функ­циональной организации интеллекта, а именно уровней Ε и F. Рассматри­вая в предыдущей главе (см. 8.1.4 и 8.4.3) основные виды четакогнитив-ных координации, мы отмечали, что в их число входят и невербальные метапроцедуры воображения, позволяющие строить пространственные модели ситуаций и подвергать их изменениям, напоминающим измене­ния, которые возникают в ходе предметной деятельности. Предположение о сугубо формальной, пропозициональной основе внутренних репрезен­таций проблематично в целом ряде отношений, прежде всего с точки зре­ния того, как мы решаем простейшие задачи с учетом пространственных отношений. Предположим (вслед за Джонсон-Лэйрдом — см. 8.2.2), что нам даны следующие условия «Анна сидит слева от Маши, а Маша сидит слева от Джона». Нужно определить взаимное положение Анны и Джона. Сделать это, используя только свойства логической транзитивности, не­возможно, так как в том случае, если Анна, Маша и Джон сидят за круг­лым столом, Анна будет находиться не слева, а справа от Джона.

Пропозициональное описание оказывается в принципе недостаточ­ным, если оно строится без учета предметной ситуации, то есть с пози­ций декларируемого методологического солипсизма. Полезным расши­рением теории языка мысли могла бы стать, например, ее интеграция с теорией перцептивных символьных систем (см. 6.4.2). Отдавая дань доми­нирующей в последнее десятилетие нейрокогнитивной парадигме, Фо-дор и другие сторонники рассматриваемого подхода признают сегодня, что функционирование языка мысли непосредственно коренится в ра­боте нейрофизиологических систем мозга, сохраняя при этом, тем не менее, свой основанный на абстрактных вычислительных операциях ха­рактер. Так, например, порождение на языке мысли синонима русской фразы «Я боюсь» приводит к активации миндалины, затем ядер гипота­ламуса, выделению адреналина и т.д., причем происходит все это столь же автоматически, как выполнение команд в компьютерной системе, где, скажем, появление на входе последовательности символов вида «begin print» ведет к распечатке текста.

Самым общим аргументом в пользу вычислительного подхода слу-310 жит ссылка на возможности машины Тьюринга. Утверждается, что всякая


критика данного подхода, если она непротиворечива, должна допус­кать формализацию в виде программы работы машины Тьюринга. Это устройство, как отмечалось (см. 2.1.1), использует гомогенную систе­му репрезентации — цепочку символов из конечного алфавита. В та­ком же коде, как функция состояния и символа на ленте, описывается и поведение машины Тьюринга. Поэтому всякая логичная критика ма­шинных моделей познавательных процессов может быть переведена если и не в реально, то, по крайней мере, в потенциально реализуемые программы вычислений18. Заслуживающие внимания критические за­мечания, следовательно, могут быть ассимилированы и использованы для демонстрации универсальности вычислительного подхода. С этой целью А. Ньюэлл и Г. Саймон разработали программу, моделирующую картину движений глаз шахматистов. Такие исследования проводились ранее советскими критиками искусственного интеллекта — O.K. Тихо­мировым и его коллегами (см., например, Тихомиров, 1969).

Этот аргумент, конечно, основан на ряде недоразумений. Его авто­ры не учитывают развитие самой математической логики. Во-первых, анализ вопроса о границе между реальной и потенциальной вычислимо­стью функций показал, что с помощью машины Тьюринга могут быть вычислены лишь сравнительно простые функции: формальные модели сложных систем оказываются более сложными, чем сами эти системы (Doyle, 2003)19. Во-вторых, средствами исчисления предикатов первого порядка («булевой алгебры»), с которой имеет дело машина Тьюринга, невозможно решать задачи новых разделов математической логики — конструктивной и модальной логики, прежде всего, подклассов так на­зываемых временных и интенциональных (или эпистемических), логик, в случае которых, до известной степени, учитываются ресурсы, знания и интенции субъекта (см. 9.2.3).

Впрочем, недостаточно убедительны и радикальные аргументы против возможности вычислительной интерпретации человеческого ин­теллекта. Упоминавшаяся в самом начале данного подраздела китайская комната Сёрла отнюдь не единственный такой аргумент. Двумя други­ми, наиболее частотными аргументами являются ссылки на теорему Гёделя о неполноте формальных систем и на «проблему фрейма» (после­днюю не следует путать с частными проблемами, возникающими в связи

18 Совершенно аналогично, несколькими десятилетиями ранее критиков психоана­лиза обвиняли в неизжитых сексуальных комплексах.

" Упомянутая здесь проблема вычислимости по-разному ставится для разных классов
вычислительных устройств. Решение задач, практически недоступных из-за продолжи­
тельности требуемых операций для машины Тьюринга и реализующих эту идею компью­
теров с фон-неймановской архитектурой, может, в принципе, оказаться в пределах дося­
гаемости для так называемых клеточных автоматов и особенно для (пока, впрочем, до­
вольно гипотетических) квантовых компьютеров, способных к чрезвычайно быстрым па­
раллельным вычислениям. 311


с использованием «фреймов» в качестве определенного формата пред­ставления знаний — см. 2.3.2 и 6.3.1).

Согласно теореме о неполноте, доказанной Куртом Гёделем в 1931 году, во всякой строго формальной системе имеются некоторые утверж­дения, которые не могут быть ни доказаны, ни опровергнуты в рамк.ах данной системы10. Следовательно, полагают современные критики вы­числительного подхода, формальное описание таких сложных систем, как сознание или интеллект человека, также обречены на неполноту и полноценный искусственный интеллект невозможен. Это рассуждение едва ли правомерно, так как вычислительные теории в когнитивной на­уке никогда и не претендовали (в действительности, не могли претендо­вать) на строгость таких формальных систем, как арифметика. Всякая попытка исчерпывающего логического описания когнитивных структур заведомо должна была бы кончиться неудачей, поскольку в психологии, как отмечал еще Кант, особенно выражена зависимость данных от про­цедуры исследования и, кроме того, сам объект исследования имеет не­прерывный характер. Существуют многочисленные примеры эмпири­чески мотивированных дополнений в вычислительных моделях языка и мышления. К ним относятся постулаты значения Карнапа (см. 6.1.1), а также разнообразные эвристики мышления и принятия решений, впервые систематизированные как раз видными представителями работ в облас­ти искусственного интеллекта Ньюэллом и Саймоном (см. 8.1.1 и 8.4.1).






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.