Мышление определим как ту функцию/поведение интеллекта, которое даёт эффективность в научении решению самых разных проблем. Эффективность это с какой скоростью при равных затратах ресурсов оператор/владелец интеллекта (человек, машина, коллектив людей и машин) чему-то может научиться, с учётом разнообразия возможных к научению решений проблем. Научиться это от «проблемы» (не знаю, как решать эту проблему с доступными ресурсами) перейти к «задаче» (знаю практику, имею мастерство решить задачу с доступными ресурсами, могу оценить потребное время).
Дальше всё больше и больше мир приходит к консенсусу по самым разным не слишком очевидным вещам:
«проблемы» понимаются как неприятные сюрпризы, которые ожидаются в будущем, а решение проблем их предотвращение («похоже, зимой будет холодно и можно замёрзнуть насмерть надо построить дом и запастись топливом для обогрева»).
Learning/обучение/познание перестали понимать как обучение одного организма коровы, или человека, или одного экземпляра нейронной сети с момента рождения до момента, когда можно уже обнаруживать проблемы и решать их. Более того, даже для организма начали делить на «предобучение» (prelearning, именно это чаще всего у людей называют «познание», в AI это обучение «голой» нейросетки до уровня большой языковой модели, LLM) до уровня, когда можно уже разговаривать, «настройку на предметную область» (finetune, аналог «прохождения курсов»), few shot learning (понимание объяснения на буквально нескольких примерах), in-context learning (понимание того, что происходят прямо в текущей ситуации). Но в целом начали говорить, что обучение идёт на нескольких уровнях: аппаратуры (эволюция, геном), накопленное организмами и передающееся на каких-то носителях знание (мемом), и уже после этого что там происходит с обучением организма.
Интеллект перестали считать вычислителем, который учится ровно таким способом, каким учатся животные или люди. В физике «вычислителем» называют что угодно, что имеет память неэргодические системы. Изменение состояния памяти это и есть вычисление. Тут же стало можно говорить о степенях «умности» даже для молекулы, имеющей какие-то свои состояния.
Но нас по-прежнему волнует вопрос обучения отдельного человека или отдельного экземпляра GAI (общего для самых разных типов проблем искусственного интеллекта, который по своей «умности» как-то сравним с интеллектом человеческим, или даже превышает человеческий интеллект, иногда называемый «естественным»).
Характеристики силы интеллекта (силы мышления, «умности») предлагались самые разные, например «вменяемость»/persuadability5 как лёгкость в обучении агента с каким-то уровнем интеллекта. Скажем, часы можно обучить показывать что-то другое, только изменив их конструкцию. Кошку можно обучить, задействовав какую-то дрессировку, повторениями каких-то ситуаций в реальном мире и затем подкрепление правильного поведения вознаграждением. А вот человеку (взрослому! Познавшему уже достаточно, чтобы понимать речь!) достаточно что-то просто сказать: это очень быстро, крайне энергоэффективно. Современный AI оказался крайне вменяемым (это стало очевидно с публикацией 14 марта 2023 года языковой модели GPT-4 фирмы OpenAI).
При этом «агентом» иногда начали называть что угодно, от молекулы до человечества, а иногда только системы, показывающие какую-то степень умения что-то спланировать в будущем и затем выполнить этот план, достигнув намеченной цели. Скажем, если обезьяна видит банан на дереве и планирует затем маршрут к банану в обход препятствий, то точно агент. Если инфузория просто ползёт по градиенту к где-то растворяемому в жидкости кусочку сахара иногда агент, а иногда не агент, ибо не может планировать свои действия. И тут же выяснилось, что понятие «агент» очень нечётко определено, скажем, человеческие детёныши из «не очень агента» переходят в «явно уже агент» довольно растянуто во времени, нет чёткой границы.
Мы достаточно говорили о безмасштабном и неантропном подходе к интеллекту агентов в самых разных курсах Школы системного менеджмента. Поэтому не будем приводить тут подробности (это фронтир, и ситуация тут меняется каждую пару месяцев: идут открытия в физике, биологии, а также изучаются результаты инженерной работы по созданию AI. Не очень понятно, какая это наука изучает AI, ибо объект настолько сложен, что им занимаются представители самых разных наук. Но чаще всего это науки, которые и раньше занимались мышлением, когда был доступен только человеческий интеллект. Речь идёт о дисциплинах интеллект-стека (семантика, математика, физика, алгоритмика, логика и т.д.). Наш курс как раз посвящён этим дисциплинам, при помощи которых вообще идёт познание как ориентирование в сложном и быстроменяющемся мире с одной единственной целью в конечном итоге выжить на уровне организмов, на уровне популяций (в том числе всей популяции вида), на уровне жизни.
Ограничимся пока только одной характеристикой интеллекта: ускорение разбирательства с неизвестным (помним, что «вменяемость» это другая характеристика, способность к планированию тоже важна, есть и другие предложения по тому, какие характеристики оказываются важны). И ограничимся пока только скоростью познания одного человека, а не ускорением познания в ходе эволюции и техно-эволюции, проходящей с участием множества людей. Если совсем грубо определять силу интеллекта, то если агент смог научиться операционному менеджменту или высшей математике за год (то есть перейти от «не знаю как решать эти проблемы» к «знаю, как решать эти задачи») отлично! Другой агент смог за два года при примерно том же уровне затраты усилий интеллект этого агента вдвое хуже. Третий агент не смог научиться даже за десять лет (больной человек, или даже собака) у него совсем плохо с интеллектом!
Это отличается от произвольных «народных» трактовок понятия «мышление» (у нас мышление::функция) и понятия «интеллект» (у нас интеллект::функциональный объект) или даже трактовок каких-то отдельных научных сообществ (этих трактовок множество!). Более того, если брать few shot learning, то современные системы машинного интеллекта уже сегодня демонстрируют силу интеллекта больше, чем люди!
И, конечно, мы игнорируем тут множество людей, которые приходят тут со своими определениями мышления и утверждают, что именно их определение мышления правильное. «Мышление это оперирование образами», «мышление это осознанный поиск правильных интуиций», «мышление это поиск лучшего научного описания проблемы», и это только первая линия «народных» определений. Вторая линия приходит как пересказ случайно выдернутой из литературы разных лет идеи из какой-нибудь околохудожественной философской школы. Скажем, берём Ницше и гуглим «Ницше мышление» и там сразу «воля к власти как осуществление мышления», и дальше можно уже бесконечно развлекаться словесными построениями вообще вне связи с идеями Ницше или его последователей. Обязательно придёт в дискуссию кто-то, кто погуглил «Анохин мышление», и он будет рассказывать про афферентацию и мозг, и полное отсутствие связи с волей власти его волновать не будет (равно как любителей Ницше не будет волновать афферентация).
⠀
⠀
Нет наград, но есть избегание неизвестности. Оптимизм
Мы говорим об интеллекте много проще: как вычислителе, который способен находить решение разнообразных проблем, понимаемых как предотвращение неприятных сюрпризов, которые можно ожидать в будущем (про проблемы это мы берём из теории active inference6). Вычисления::функция этого интеллекта::функциональный объект это и есть мышление. Больше разнообразие этих проблем выше уровень интеллекта, мощнее мышление, для определения силы интеллекта через скорость решения проблем (то есть скорость обучения решать какой-то класс проблем, если говорить точнее) используем подход François Chollet7.
Компьютеры подешевели, и на огромном числе компьютеров теперь человеческие дети тупеют, размахивая нарисованными мечами, которыми рубят нарисованных демонов, интернет подешевел и стал большой помойкой, а искусственный интеллект подешевел, и теперь помойка будет вообще огромной, а использоваться он будет для того, чтобы маркетологам было легче взламывать ваш мозг (при этом маркетологом можете быть и вы сами, тогда будете взламывать мозг вашего ближнего, «ничего личного, это бизнес»), а перед этим сильный корпоративный интеллект взламывать слабенькие защиты вашего персонального ассистента, который слабенький, потому что стоит дёшево, а маркетологи будут использовать дорогой интеллект. Этот интеллект в персональном ассистенте будет защищать от чужого взлома ваш мозг, но может также ломать его «по-правильному» с точки зрения какого-то другого агента (фирмы-изготовителя, государства пребывания, государства фирмы-изготовителя, государства, которое считает вас своей собственностью, то есть своим гражданином, враждебного вам хакера, ваших родителей или работодателей, которые настроили вашего персонального помощника, случайных представлений, выбранных самим интеллектуальным помощником и т.д., любой софт это только кажется, что это ваш софт! К интеллектуальным помощникам/чат-ботам это относится в полной мере)8.
Так что генератор мемов планетарного масштаба уже появился, теперь ждём-с чего-то типа иммунной системы для этих мемов, развития паразитизма (хаков самых разных интерфейсов, главный из которых интерфейс через глаза, уши и даже кинестетику как раз к вам в мозг, но и это недолго, будут интерфейсы и поинтереснее, в том числе инвазивные нейроинтерфейсы9) и т. д. все прелести эволюции. Какие-то интересные картинки этого будущего читайте в работе «Designing Ecosystems of Intelligence from First Principles»10. Смысл там в том, что у компьютера сейчас уже имеется какая-то модель мира (в виде большой языковой модели, LLM11), и таких компьютеров всё больше, причём современный компьютер это датацентр с десятками тысяч компьютеров, поддерживающих миллионы экземпляров таких моделей. На следующей стадии развития машинного интеллекта будет различение мира и модели мира (понимание, что интеллекту доступен не сам мир, а только модели мира, далее в интеллект-стеке будем обсуждать понятия прямого доступа, первого доступа, второго доступа12).
Дальше машинный интеллект начнёт оперировать с такими моделями как убеждениями о мире, то есть работать не только с моделями-1 мира, а с моделями-2 этих моделей как убеждениями/уверенностями, что эти модели-1 отражают мир. В рассуждениях начинают участвовать beliefs по поводу models, и дальше идёт моделирование не только агентов, но и их моделей мира, а также своей уверенности в моделях агентов, моделях их картины мира, сравнение чужих убеждений со своими убеждениями о мире и уверенностью в них, и т. д. Это уже происходит. Изучение такого отражения «нашим интеллектом» моделей мира «других интеллектов» называют theory of mind (ToM), и современные нейронные сети, начиная с GPT-4 демонстрируют такие свойства на уровне человека13:
Модели, опубликованные до 2020 года, практически не показали способности решать задачи ToM. Тем не менее, первая версия GPT-3 («davinci-001»), опубликованная в мае 2020 года, решила около 40% задач на ложное убеждение производительность, сопоставимая с 3,5-летними детьми. Вторая версия («davinci-002»; январь 2022 года) решила 70% задач на ложное убеждение, что сравнимо с результатами шестилетних детей. Её последняя версия, GPT-3.5 («davinci-003»; ноябрь 2022 года), решала 90% задач на ложное убеждение, на уровне семилетних детей. GPT-4, опубликованная в марте 2023 года, решила почти все задачи (95%). Эти результаты позволяют предположить, что способность к ToM-подобному (до сих пор считавшаяся уникальной для человека) могла спонтанно возникнуть как побочный продукт совершенствования языковых моделей14. Последнее достижение это как получить 100% (заведомо лучше людей!) прохождение тестов ToM через правильные вопросы для GPT-4 (дать возможность нейросети подумать в несколько шагов, впрочем и для нейросеток людей это тоже должно помогать)15.
Но нельзя отождествлять интеллект только с мозгом! Помним, что главная цель это найти практики, помогающие избежать неприятных сюрпризов. И тут аппаратно существуют у животных минимум две такие системы: мозг (ментальный мозг) и иммунная система («нементальный мозг»), которые устроены абсолютно по-разному, но имеют одно и то же назначение: охранять границы тела от внешних вторжений16. Мозг как сложная система, состоящая из множества совместно работающих (обменивающихся сигналами) клеток самых разных типов, реагирует централизованным выбором реакции из альтернатив «беги-бей», а иммунная система, точно так же состоящая из множества разных типов клеток, обменивающихся сигналами, реагирует реакцией воспаления. Обе системы должны понимать, что представляет собой «тело», а что «внешняя среда», то есть распознавать «своё-чужое», «дружественное-нейтральное-враждебное». При этом мозг обучается, но и иммунная система тоже обучается! Реализация интеллекта и формы его существования оказываются предельно разными. А мышление? Трудно представить, что иммунная система занимается мышлением но она таки занимается мышлением, познаёт окружающий мир, затем формирует прикладное мастерство быстрого реагирования на уже знакомые угрозы (когда иммунитет к какому-то вирусу или бактерии есть, болезнь не успевает развиться), а для новых угроз медленно, но распознаёт угрозу и формирует прикладное мастерство подавления этой угрозы (болезнь успевает развиться, но затем наступает выздоровление). И дальше по этой линии можно думать, что и общество в целом «думает», и там происходят похожие распределённые процессы, необязательно похожие на мышление отдельного централизованного мозга, но более похожие на мышление «нементального» мозга типа иммунной системы. Интеллект оказывается удивительно многолик.
Мы не будет дальше заниматься в курсе «нементальным интеллектом», но удерживать этот вариант в мышлении надо, иначе трудно разбираться с происходящим на системных уровнях выше отдельного человеческого организма (уровнях популяции людей, людей и машинных интеллектов).
Важнейший эксперимент, который показал верность теории «никогда не бегут куда, всегда бегут откуда» (то есть то, что интеллект никогда не стремится к лучшему, он лучшим считает избегание худшего) это эксперимент DishBrain, который провела лаборатория Cortical Labs17. В теории active inference18 и теории world as a neural network19 говорится, что «достаточно сложная система может учиться, и это описывается вот такой физикой». Далее берём несколько сотен миллионов (то есть очень мало!) выращенных в пробирке нейронов мыши и/или человека (работает и так, и так) и кладём на электродную матрицу. Архитектура такого вычислителя «синапсовое спагетти, уж как выросло, но должно быть достаточно сложное, чтобы мочь научиться чему-то заранее ему неизвестному» (то есть постулируем, что у сложнозапутанных между собой нейронов есть интеллект, этот интеллект должен избегать сюрпризов). Современные теории утверждают, что для познания мира не нужно знать, что такое «награда» (что такое «пища» или «здоровье» и т.д.). Но избегание неприятностей, «выживание в мире, полном опасностей» оно появляется во всех устойчивых системах, которые вынуждены поддерживать собственное существование в условиях опасной неопределённости физического мира. Поэтому избегаем неопределённости, ибо в ней те самые «неприятные сюрпризы».