Наше постчеловеческое будущее: Последствия биотехнологической революции - Фукуяма Фрэнсис 24 стр.


Каждый уровень может дать нам какие-то догадки о лежащих над ним, но понимание нижних уровней не дает возможности понять возникающие свойства верхних уровней. Исследователи, работающие в области сложных адаптивных систем, создали так называемые модели сложных систем на основе агента и применили их во многих областях — от клеточной биологии и ведения войны до распределения природного газа. Но еще надо будет посмотреть, действительно ли данный подход составляет единую и последовательную методологию, применимую к сложным системам

Рассматриваемые в ретроспективе последних пятидесяти лет, философия разума, как и наука о познании и некоторые ветви психологии, разыгрывают весьма любопытный спектакль. Наиболее поразительно — насколько многое из того, что лежит в главном русле философии разума последних полувека, кажется очевидно ложным… в философии разума очевидные факты о ментальном, вроде того, что у нас действительно есть субъективные сознательные ментальные состояния, и что их не заменить ничем другим, привычно отрицаются многими, если не большинством, передовых мыслителей, пишущих на эту тему.

Пример заведомо ложного понимания сознания дает нам один из ведущих экспертов в этой области, Дэниел Деннет, книга которого "Сознание объясненное" приходит в конце концов к следующему определению сознания:

Человеческое сознание само есть огромный комплекс мемов (точнее, действий мемов в мозгу), что лучше всего можно представить себе как работу некоей "фон-неймановской" виртуальной машины, реализованной в параллельной архитектуре мозга, который не был спроектирован в расчете на такую работу.

Аналогично многие исследователи в области искусственного интеллекта обходят вопрос о сознании путем фактической подмены темы. Они предполагают, что мозг есть просто органический компьютер большой сложности, который можно идентифицировать внешними характеристиками. Известный тест Тьюринга утверждает, что если машина может выполнять познавательные задачи, такие как поддержание беседы так, чтобы внешне это нельзя было отличить от тех же действий, совершаемых человеком, то внутренне она тоже от человека отличаться не будет. Почему это должно быть адекватным тестом ментальности человека — загадка, поскольку машина точно не будет иметь никакого субъективного осознания своих действий, как и связанных с ними чувств(Критика этого подхода содержится у Сирла в его загадке "Китайская комната", где поднимается вопрос, можно ли сказать, что компьютер понимает китайский язык лучше, чем не говорящий по-китайски человек, сидящий в запертой комнате и получающий инструкции, как обрабатывать ряд символов китайского языка. См. Searle (1997), р. 11. —

Назад Дальше