Понимание в мышлении, общении, человеческом бытии - Виктор Владимирович Знаков 9 стр.


Рассматривая под таким углом зрения эволюцию «понимающих систем» (см., например: [12]), сейчас можно утверждать, что многие системы, которые в 19601970 гг. назывались «понимающими», на самом деле таковыми не являлись, потому что производили операции над данными, не приписывая им смысла, т. е. оперировали данными, а не знаниями. Был также период, когда «понимающими» называли системы, способные осуществлять только синтаксический анализ входного предложения. Эти системы не имели моделей предметной области, не соотносили анализируемые и якобы понимаемое предложение с отображенной в нем предметной ситуацией. Устанавливая взаимно однозначные соответствия между буквами слов естественного языка и их машинными кодами, программы таких систем, по сути дела, манипулировали символами как изолированными от мира сущностями, связанными только между собой.

Надо отметить, что многие современные специалисты по вычислительной технике полагают, что поскольку в языках программирования символами программ приписываются определенные произвольно выбранные значения, то тем самым программа работает с символами как с чем-то действительно означенным. Они говорят, что могут закодировать любое слово естественного языка (например, «самолет») последовательностью нулей и единиц, приписывая тем самым этой последовательности символов тот смысл, который это слово имеет для человека. Они не учитывают, что предметная отнесенность и целевая направленность возможного использования слова в речевом общении остается у них в голове, не попадая в программу. Вследствие этого, хотя кодируемое слово, безусловно, имеет смысл для программиста и выступает для него как знание, обозначающее что-то вполне определенное, для системы, не имеющей моделей действительности и целей, оно выступает в роли данных, с которыми осуществляются преобразования, заданные алгоритмами программ. Для таких программистов вообще характерна путаница в употреблении понятия «понимание» применительно к человеку и машине; они, например, считают, что если система выполняет инженерные расчеты так, что результаты ее деятельности схожи с результатами решения расчетных задач человеком и потому понятные разработчику, то такая система понимает задачу, так как действует в соответствии с ее требованиями. однако объективно это говорит лишь о том, что понимает динамическую структуру задачи (т. е. может найти ее предметные и целевые корреляты в своем внутреннем мире) сам разработчик, а отнюдь не ЭВМ. Повторим еще раз: «понимающими», преобразующими данными в знании путем приписывания данным смысла являются только те технические устройства, которые соотносят входные сообщения с отображенными у них в памяти предметной областью и целями.

Модели предметной области стали включаться в состав систем «искусственного интеллекта» уже двадцать лет назад, а создание блоков целей это характерная черта систем 80-х годов. В публикациях, посвященных «понимающим системам» (например, [14]), понятие «цель» чаще всего используется в контексте разработки планирующей компоненты системы модуля построения или выведения плана (обычно речь идет о плане поведения человека, описываемого в тексте, который поступает на вход системы). Цели в них рассматриваются как вполне конкретные образования препятствия, мешающие выполнению плана действующего субъекта. При воспроизведении в системе интерпретируемая таким способом «цель» оказывается просто одной из функций машины, имеющей мало общего с «целью» в психологии.

Гораздо более приближенными к процедурам целеобразования и соответственно приписывания смысла у человека оказываются «цели» «процедуры означивания» (термин, употребляемый разработчиками) в экспертных системах. Системы этого класса, принадлежащие к вершинным достижениям «искусственного интеллекта», несомненно, являются «понимающими», потому что означивание в них происходит способом, очень близким к человеческому. Так, в одной недавно созданной отечественной экспертной системе задачи, которые она должна решать (выдавать консультации врачам, геологам и т. д.), заносятся в рабочую память в виде фреймов, описывающих проблемную область, а действия, которые могут понадобиться для решения задач,  в виде продукций. Когда в систему поступает запрос, он попадает на некоторый шаблон, схему продукций. Затем, для того чтобы определить, какие продукции целесообразно применять для решения входной задачи, этот шаблон соотносится с проблемной областью. После соотнесения шаблон «возвращается» наполненным несколькими подходящими для решения продукциями. Разработчики называют его «означенным конфликтным набором» (конфликтным потому что каждая из продукций набора в принципе может быть использована для решения), но, с точки зрения психолога, означивание произошло пока еще не до конца. Затем система применяет эвристические правила, с помощью которых вводятся ограничения, позволяющие в конечном счете выбрать только те продукции, которые нужны для решения. Эвристические правила, в сущности, делают то же, что у человека, например, читающего текст, осуществляет цель,  направляют деятельность. Разумеется, аналогия с целью здесь проводится только по функциям и достигаемым результатам, а не по механизмам. Разработчикам в содружестве с психологами предстоит еще много потрудиться для приближения машинных «целей» к человеческим. Процессы предвосхищения результатов будущих действий, превращения побочных результатов действия в цели через связь с мотивом, преобразования неосознаваемых результатов в осознанные эти аспекты целеобразования человека и многие другие еще предстоит воплотить в «понимающих системах».

Заключение. Сравнительный анализ проблемы понимания в психологии и «искусственном интеллекте» показал следующее. Программы современных «понимающих» не моделирую процессы понимания человека, не воспроизводят его психологические механизмы, потому что в этих программах представлены только некоторые и не всегда самые существенные стороны анализируемого феномена. Реализуемые в системах представления о понимании специалистов по «искусственному интеллекту» оказываются намного беднее знаний о нем у представителей психологической науки; отчасти это обусловлено ограниченными техническими возможностями реализации, отчасти недостаточной информированностью разработчиков о результатах психологических исследований. Работы психологов не только обнаруживают те аспекты понимания, которые пока не отражены в «понимающих системах», но и проясняют направления, в которых нужно совершенствовать системы. Результаты психологических исследований понимания уже сейчас применяются в некоторых отечественных и зарубежных разработках для совершенствования общей конструкции систем, улучшения их «понимающих» возможностей. Интересные перспективы в разработке блока целей открывают психологические исследования целеобразования, а в создании модели предметной области выявленные в психологии понимания закономерности функционирования предметных знаний в познавательной деятельности понимающего субъекта. В свою очередь психологические исследования последнего десятилетия в значительной степени развивались в направлении решения проблем «искусственного интеллекта»  последние как бы указывали психологам наиболее перспективные пути анализа понимания. Следовательно, контакты психологов с разработчиками «понимающих систем» плодотворно сказываются на научном анализе понимания, их следует укреплять и совершенствовать.

Литература

1. «Искусственный интеллект» и психология / Под ред. О. К. Тихомирова. М.: Наука, 1976.

2. Попов Э. В. Общение с ЭВМ на естественном языке. М.: Наука, 1982.

3. Постановление ЦК КПСС о журнале «Коммунист» // Коммунист. 1986.  12. С. 312.

4. Тихомиров О. К. Информатика и новые проблемы психологической науки // Вопросы философии. 1986.  7. С. 3952.

5. Тихомиров О. К. Структура мыслительной деятельности человека. М.: Изд-во Московского университета, 1969.

6. Уинстон П. Искусственный интеллект. М.: Мир, 1980.

7. Cognition and the symbolic processes / Ed. by W.B. Weimer and D.S. Palermo. Hillsdale; New Jersey: Lawrence Erlbaum Associates, 1974.

8. Kolers P.A., Smythe W.E. Simbol manipulation: Alternatives to the computional view of mind // Journal of verbal learning and verbal behavior. 1984. V. 23.  3. P. 289314.

9. Language and comprehension / Ed. by J.F. Le Ny and W. Kintsch. Amsterdam; New York; Oxford: North-Holland Publishing Company, 1982.

10. Newell A. The knowledge level // Artificial Intelligence. 1982. V. 18,  1. P. 87127.

11. Schmidt C.F., Sridharan N.S., Goodson J.L. The plan recognition problem: An intersection of psychology and articial intelligence // Artificial Intellegence. 1978. V. 11.  12. P. 4583.

12. Simon H. Artificial intelligence systems that understand // Fifth international joint conference on artificial intelligence. Boston: MIT, 1977. P. 10591073.

13. Sloman A. What enables a machine to understand? // Proceedings of the ninth international joint conference on artificial intelligence. Los Angeles: IJCAI, 1985. P. 9951001.

14. Wilensky R. Meta-planning // Proceedings of the first annual national conference on artificial intelligence. Stanford: AAAI, 1980. P. 334336.

Мышление, знание и понимание

Опубликовано: Вестник Московского университета. Серия 14. Психология. 1989.  2. С. 616 (в соавторстве с О. К. Тихомировым).

Проблема. Проблема соотношения мышления и знания еще в начале века была поставлена в гештальтпсихологии. М. Вертгеймер сформулировал ее в виде парадоксального вопроса: что лучше мыслить или знать? Стремясь выделить в мышлении творческий момент, способность мыслящего субъекта открывать новое, гештальтпсихологи противопоставили продуктивное мышление репродуктивному, основанному на прошлом опыте (знании). Они затратили немало усилий на экспериментальное обоснование тезиса о том, что прошлый опыт является тормозом, препятствующим видению нового (эксперименты К. Дункера, Н. Майера и др.). «Однако,  пишет К. А. Славская,  в поисках механизма мышления они совершенно упустили из виду тот фундаментальный факт, что всякое мышление исходит из прошлых знаний, совершается на их основе, отправляется от них, включает их, что без использования знаний мышление вообще невозможно» [16, с. 156]. Убедительные доказательства реальности указанного факта получены в работах С. Л. Рубинштейна, А. В. Брушлинского, Я. А. Пономарева, А. М. Матюшкина и других советских и зарубежных психологов.

Назад Дальше