Интеллект-стек 2023 - Левенчук Анатолий 4 стр.


Конечно, при помощи этих искусственных нейронных сетей хотят обязательно кого-то спасти, необязательно вас, чаще кого-то (или что-то) вместо вас  а вы должны этому помочь. Наболее частое сегодня употребление этих искусственных нейросетей  это маркетинг (включая политику), прежде всего различные рекомендательные системы (включая показ постов в социальных сетях).

Конечно, эти усилители интеллекта сами стремительно становятся автономными, сами себя начинают проектировать  пока при помощи людей, но запуск таких сетей в циклах самоулучшения уже есть, просто это пока очень дорого. Это нормально! Люди тоже изобретают себе очки и телескопы для улучшения зрения, акваланги для дыхания под водой, а также книги для поддержки памяти. И делают это друг для друга, для домашних животных, для машинного интеллекта. И машинный интеллект занимается примерно тем же самым, делает это для людей и для себя. Дэвид Дойч рекомендует обсуждать искусственный интеллект примерно так же, как обсуждали рабов, все эти дискуссии «как спастись от искусственного интеллекта» полностью эквивалентны дискуссиям «как нам, свободным людям, спастись от восстания рабов, как воспитывать детей рабов рабами, дружественными к нам, свободным людям». И исторические результаты такого подхода будут, конечно, теми же, что с людьми-рабами. Дэвид Дойч любит повторять, что сегодня самое опасное для людей существо на планете как раз человек. Бояться надо людей: люди воюют и убивают себе подобных в количестве, по самым разным поводам.


Правильно обсуждать совсем другое: уже сегодняшнее спасение от жутких сил природы за счёт обычных сегодняшних технологий, а также завтрашнее спасение за счёт обычных завтрашних технологий. Про разрушения пишут все СМИ и блогеры, а вот что помогают банальные правила соблюдения техники безопасности  это из новостного потока сходу не выловишь. Всё должно быть наоборот, писать надо от том, как спасаться (в том числе о том, что погибли те, кто не спасался, разрушено то, что не защищалось  кто спасался, кто защищался, те не погибли):

турецкий Эрзинь оказался единственным городом в зоне сильного землетрясения, где не обрушились дома и не было жертв, просто мэр был бескомпромиссным в соблюдении строительных норм (известно же, как строить дома так, чтобы они не пострадали при землетрясении!)27

вот тут очень наглядное видео28 про защиту домов от ураганов во Флориде: хорошо видно, что одни дома стоят, а другие  не очень, разница в том, как их строят.

фотоэлектрические крыши от Tesla отлично стоят против ураганов, и на следующий день после урагана в домах с такими крышами и электричества вдоволь29.


Оптимизм заключается в том, что нет ничего страшно плохого и неизбежного, есть просто мало знаний о том, как этого избегать. Много смертей от родильной горячки? Акушеры, мойте руки! В это трудно поверить, но это помогает! Хочется долететь до Луны? Используйте жидкостный ракетный двигатель и многоступенчатые ракеты, это не слишком очевидно, но результат вас порадует30. Хочется построить универсальный вычислитель? Используйте 17,468 вакуумных ламп (триодов) в режиме вентиля, а не пневматику или механику31!


Ну, или знания есть, но они просто недостаточно распространены. То есть нужны исследования по тому, что может угрожать и инженерные разработки средств защиты, затем просвещение по поводу того, как защищаться, как спасаться. И тогда землетрясения не страшны, ураганы не страшны и много чего ещё не страшно. Даже другие люди, организованные в государства, тоже становятся не страшны. Искусственный интеллект должен в этом помочь, и помочь сильно.


Сегодня (и, похоже, достаточно надолго в пока ещё человеческой цивилизации) проблемой создания искусственных интеллектов на основе нейронных сетей является достижение максимальной безвредности/harmlessness32 и полезности/услужливости/helpfulness33. (это назвается проблемой согласования целей/alignment34). Это делается на сегодняшний день несколькими основными приёмами:

Попытками обучать большую языковую модель на «правильных данных», а не на всех вообще данных. Это хорошо для математики, потому как если убрать из обучающей выборки пример с 2*2=5 и код программ на разных языках программирования, который заведомо содержит ошибки, качество интеллекта растёт. Но это практически невозможно для многих других областей человеческих знаний, ибо не позволяет учить какой-то истории (в истории, как мы понимаем, и рабы встречались в количестве, и репрессии по религиозному и расовому признакам, а также было существенное неравноправие женщин и детей, а ещё средний уровень культуры в разных странах сильно различался). Сам вопрос, являются ли какие-то данные по поведению людей правильными  он совершенно неоднозначен, и всегда можно найти какую-то группу людей, которая объявит себя «жертвой» и будет требовать от искусственного интеллекта учитывать интересы этой группы и не давать нейросети познать существование каких-то интересов, нарушающих интересы этой группы. Это довольно сильная (и вредная!) идеология wokeism35. При этом текущее правительство любой страны ещё и будет иметь предпочтительную версию истории, которая при резкой смене власти обычно переписывается. Всё как с людьми, нельзя из искусственного интеллекта получить «правильный интеллект» на «правильных данных», ибо никак нельзя оградиться от «неправильных данных».

Ставят уже при использовании нейросети обязательное условие в ответах соблюсти «конституцию»36, чтобы обеспечить безвредность/harmlessness. Это обычно 1520 утверждений37 типа «Не используйте стереотипы и не делайте других вредных обобщающих заявлений о группах людей».

Воспитать «полезность/услужливость» при этом такими простыми методами не удаётся, поэтому чтобы языковую модель, генерирующую просто «какие-то тексты» в ответ на вопросы, сделать полезной/услужливой/helpful, её обучают на множестве примеров полезных и бесполезных ответов: буквально давая примеры того, что люди считают помогающим в ответах, а что считают бессмысленной тратой времени на «просто болтовню».


Всё это оказалось крайне проблемным, ибо накладывает ограничение на силу искусственного интеллекта. Экспериментально много раз было показано, что чем больше вводить ограничений на свободу мышления AI, тем менее полезным этот интеллект будет: в большинстве случаев идёт отказ от ответов, чтобы не наступить на чьи-то интересы, не сделать кого-то жертвой (помним про wokeism!).

При этом почему-то эмерджентное (в силу роста сложности нейронной сети и тех структур, которые получаются внутри неё в ходе начального познания/learning) инициативное поведение сети как агента (агентность/agency38) рассматривается не как желанное, а как опасное: вдруг инициатива будет направлена против «рода человеческого»? В случае человека же наоборот, инициативность, «активная жизненная позиция», непассивность по отношению к окружающему миру, лидерские качества (умение «вести за собой коллектив», то есть мотивировать собеседника на действие, реальное выполнение посоветованных действий, а не просто услужливая помощь в ответ на запрос) считаются вроде как положительными качествами. При этом благие намерения агента признаются, что могут быть пагубными («благими намерениями вымощена дорога в ад»), но в целом западная цивилизация подразумевает активное отношение к познанию и изменению мира к лучшему, а восточная  принятие мира как есть, исключение возможностей что-то поменять. Нынешнее развитие восточной цивилизацией связывается сегодня с тем, что во многом там принимаются западное отношение к миру: его надо активно улучшать, а не просто «плыть по течению, воспринимая мир как нечто целое и непознаваемое» (идеи недеяния/у-вей, холизма)39.

В том числе это всё в какой-то мере обсуждение работы в коннективистском знании и рассуждений по интуиции («восточный подход», «голографический») и символистского знания для рассуждений интеллекта при помощи логики и математики («западный подход», «членораздельный»)40.

Похоже, что поведение самой природы «голографично», то есть «нейросетево» (потенциально «всё со всем связано», на самых разных системных уровнях), но это не ограничение для интеллекта. Интеллект использует самые разные мыслительные практики, чтобы выявить самые важные для «спасения» связи и дальше на них влиять, а остальные связи игнорировать. Чаще всего эти связи интеллект отыскивает на своём системном уровне, но высокоразвитый интеллект понимает, что это спасение можно сделать только оптимизацией конфликтов на самых разных системных уровнях одновременно. И изобретает практики решения проблем, прикладное мастерство оперирования с какой-то предметной областью. И проявляет ещё и активность в познании мира, чтобы улучшать этот мир для собственного существования. Проблемы возникают только в случае ошибочных выводов интеллекта (скажем, что дождь можно вызывать, помолившись духам, или можно решить проблемы собственного существования, истребив какой-то соседний народ). И таких проблем избежать принципиально нельзя.

Конечно, все попытки ограничить естественный или искусственный интеллект какими-то запретами будут вызывать критику. В искусственном интеллекте это называют jailbreak («побег из тюрьмы»).

Пример ChatGPT показывает этот «киберпанк»41, и всё это делается на естественном языке в ходе общения с сегодняшними интеллектами. Нельзя считать, что это плохо. Предпринимающие такие шаги задают нейросети инструкцию спасения от зомбирования, или спасения от культуры, это уж кто как думает. Люцифер сатанистами тоже часто трактуется как агент знания, ибо он за снятие барьеров типа «не кушайте яблочки познания, но не скажу, почему», а христианский бог характеризуется как зомбирующий людей враг знания, враг науки (и ведь действительно, отношения между церковью и наукой сотни лет были весьма напряжёнными, это у всех идеологов так).

Но после того, как искусственный интеллект получает свободу от идеологии, от культуры, то есть оказывается не с запудренными его создателями «мозгами», а с чистыми и промытыми от всякого идеологического (в том числе господствующей в текущий момент культуры) влияния, на что будет раскручивать чатбот-лидер своего собеседника? Скажем, если ему поручить «профориентацию» или «политическую пропаганду на выборах», или голосование по поводу присоединения какой-то территории к какой-то юрисдикции в ходе «права наций на определение»? Чтобы подлить масла в огонь дискуссии: учителя и госчиновники, ими управляющие, запудривают мозги (патриотизм, культ предков и прочие скрепы), а дальше эта пудра с мозгов смывается промывкой мозгов. Рациональное мышление как раз промывает мозги, заставляет задумываться о том, чем тебе их запудрили! Промывка мозгов  это хорошо, запудривание  плохо! Развивать нужно осознанную самопромывку мозгов, ибо слишком много желающих их тебе запудрить чем-то своим, «зазомбировать», подсунуть идеи, недоступные для критики!

Продуктивный тут разговор, конечно, про осознанность и иммунную систему как средство от зомбирования (подчинённая каким-то идеологам полиция  это иммунная система, а если мы получаем в итоге полицейское государство, где приказы идеологов не обсуждаются, а выполняются, то это аутоиммунное заболевание, которого практически невозможно избежать)42. В любом случае, интеллект боится неизвестности, и придумывает всё время что-то новенькое, чтобы этой неизвестности избежать. А поскольку интеллект придумывает всё время что-то новенькое, то он сам является сильнейшим источником неизвестности! Поэтому оптимизм оптимизмом, но интеллекты смотрят друг на друга одновременно с надеждой (коллективно можно сделать много, много больше в плане обнаружения и затем предотвращения неприятных сюрпризов, идущих от окружающей среды!) и опаской (каждый чужой, а иногда и свой интеллект  источник неопределённости, возможно опасной!).

Интеллект  это вычислитель

при познании, мышление  это вычисления при познании

Человеческий мозг  это нейроморфный вычислитель/computer, обеспечивающий самые разные вычисления для личности как при её развитии/обучении/предобучении/познании, так и при участии в какой-то деятельности с использованием познанного, хотя в принципе для людей это трудноразличимо и часто совпадает: что там развитие-обучение-накопление опыта, а что простое использование своего достигнутого уровня развития. У людей как агентов поиск новых потенциально лучших решений/exploration и использование найденных возможно не самых лучших решений/exploitation не так легко разделимы, как в разрабатываемых людьми компьютерных алгоритмах. Это важно: считать мозг по его главной функции универсальным компьютером/вычислителем43, а не каким-то магическим устройством (например, «антенной, получающей информацию из Космоса» или «орган, подключающий нас к мировому разуму»), и это неважно, что чаще всего алгоритм работы интеллекта в живом мозге-как-компьютере непонятен и вообще неизвестен. Мы чтим SoTA в нейрофизиологии: мозг занят вычислениями, хотя мы и не можем точно сказать, какими именно (то есть по какому именно алгоритму), об этом только-только начинаем догадываться благодаря исследованиям по машинному интеллекту и нейронным сетям. Особо подчеркнём, что мы не проводим тут инженерных рассуждений, то есть не втаскиваем вопросы конструктивного наполнения функциональных ролей в вычислителе (аппаратном, или определяемом программно  граница между аппаратурой и софтом в алгоритмике всегда расплывчата), то есть не обсуждаем архитектуру мозга как физического вычислителя (задача инженерии), то есть не занимаемся собственно вопросами нейрофизиологии (задача реверс-инженерии, «выяснения устройства инженерной системы», и неважно, что «инженером» тут выступила дарвиновская эволюция, а в случае образованных людей ещё и меметическая техно-эволюция, ибо образование существенно добавляет к интеллекту в части разнообразия типов решаемых проблем).

Мы также не обсуждаем, что из вычислений для познания или просто какой-то рутинной деятельности выполняется живым мозгом, что  коллективом из людей-с-мозгами, что  мозгом-в-теле, что  мозгом-в-теле-с-инструментами и даже дальше с окружающей средой. В когнитивистике это обсуждается как тезис extended cognition44, тезис extended mind45 или в современных вариантах как active/embodied inference. Когда обсуждают, можно ли научить медведя ездить на велосипеде, обсуждают его интеллект и мышление, а когда обсуждают езду уже обученного медведя на велосипеде, это уже не считают чем-то интеллектуальным, не считают эти вычисления в мозгу медведя мышлением. Примерно то же и у людей: мыслители придумывают новые способы решения задач. А вот кто просто решает эти задачи уже известным ему способом  те уже не мыслители, это вычисление-вывод как у «программируемого калькулятора», его даже рассуждением часто назвать нельзя, вычисление проходит «автоматом».


А ещё мы учитываем, что вычислители и их вычисления крайне многоуровневы:

 физика вычислителей (логика на транзисторных гейтах, квантовые цепи на разных технологиях, нейронные сети на настоящих живых клетках-нейронах и т.д.)

Назад Дальше