Применения элементов искусственного интеллекта на транспорте и в логистике
Вадим Николаевич Шмаль
Дмитрий Владимирович Абрамов
Александр Владимирович Корпуков
© Вадим Николаевич Шмаль, 2021
© Дмитрий Владимирович Абрамов, 2021
© Александр Владимирович Корпуков, 2021
Зарождение науки об Искусственном интеллекте
Искусственный интеллект (ИИ) это интеллект, демонстрируемый машинами, в отличие от естественного интеллекта, демонстрируемого людьми и животными. Изучение искусственного интеллекта началось в 1950-х годах, когда системы не могли выполнять задачи так же хорошо, как человек. Искусственный интеллект это общая цель построения системы, демонстрирующей интеллект, сознание и способной к самообучению. Наиболее известные типы искусственного интеллекта известны как машинное обучение, которое является разновидностью искусственного интеллекта, и глубокого обучения.
Развитие искусственного интеллекта спорная область, поскольку ученые и политики борются с этическими и юридическими последствиями создания систем, демонстрирующих интеллект человеческого уровня. Некоторые утверждают, что лучший способ продвинуть искусственный интеллект через образование, чтобы не допустить его предвзятого отношения к людям и сделать его доступным для людей из всех социально-экономических слоев. Другие опасаются, что усиление регулирования и озабоченность по поводу национальной безопасности будут препятствовать развитию искусственного интеллекта.
Искусственный интеллект (ИИ) зародился в 1950-х годах, когда ученые полагали, что машина не может демонстрировать разумное поведение, которое невозможно воспроизвести человеческим мозгом. В 1962 году команда Университета Карнеги-Меллона под руководством Терри Винограда начала работу над универсальным вычислительным интеллектом. В 1963 году в рамках проекта MAC Карнеги-Меллон создал программу под названием Eliza, которая стала первой машиной, продемонстрировавшей способность рассуждать и принимать решения по-человечески.
В 1964 году исследователь IBM JCR Licklider начал исследования в области информатики и когнитивных наук с целью разработки интеллектуальных машин. В 1965 году Ликлайдер предложил термин «искусственный интеллект» для описания всего спектра когнитивных технологий, которые он изучал.
Ученый Марвин Мински представил концепцию искусственного интеллекта в книге «Общество разума» и предвидел, что область развития науки проходит три стадии: личный, интерактивный и практический. Персональный ИИ, который он считал наиболее многообещающим, приведет к появлению интеллекта человеческого уровня, разумной сущности, способной реализовывать свои собственные цели и мотивы. Интерактивный ИИ разовьет способность взаимодействовать с внешним миром. Практический ИИ, который, как он считал, наиболее вероятен, разовьет способность выполнять практические задачи.
Термин искусственный интеллект начал появляться в конце 1960-х годов, когда ученые начали делать успехи в этой области. Некоторые ученые полагали, что в будущем компьютеры возьмут на себя задачи, которые были слишком сложны для человеческого мозга, таким образом достигнув интеллекта. В 1965 году ученых увлекла задача искусственного интеллекта, известная как проблема Стэнфорда, в которой компьютеру предлагалось найти кратчайший путь на карте между двумя городами за заданное время. Несмотря на множество успешных попыток, компьютеру удавалось выполнять задачу только в 63% случаев. В 1966 году профессор Гарвардского университета Джон Маккарти заявил, что эта задача «настолько близка, насколько мы можем в компьютерах, к проблеме анализа мозга, по крайней мере, на теоретической основе».
В 1966 году исследователи из IBM, Дартмутского колледжа, Университета Висконсин-Мэдисон и Карнеги-Меллона завершили работу над Whirlwind I, первым в мире компьютером, созданным специально для исследования искусственного интеллекта. В рамках проекта «Геном человека» компьютеры использовались для предсказания генетической структуры человека. В 1968 году исследователи из школы электротехники Мура опубликовали алгоритм для искусственных нейронных сетей, который потенциально мог быть намного мощнее электронного мозга.
В 1969 году аспиранты Стэнфорда Сеймур Паперт и Герберт А. Саймон создали язык для детей Logo. Logo была одной из первых программ, в которых использовались как числа, так и символы, а также простая грамматика. В 1969 году Паперт и Саймон основали Центр интерактивного обучения, который привел к разработке логотипа и дальнейшим исследованиям в области искусственного интеллекта.
В 1970-х годах ряд ученых начали экспериментировать с самосознающими системами. В 1972 году профессор Йельского университета Джордж Збиб представил концепцию «искусственного социального интеллекта» и предположил, что эти системы однажды смогут понимать человеческие эмоции, в 1972 году он ввел термин «эмоциональный интеллект» и предположил, что однажды системы смогут понимать человеческие эмоции. В 1973 году Збиб стал соавтором статьи под названием «Естественные аспекты эмоционального взаимодействия человека», в которой он утверждал, что можно было бы объединить искусственный интеллект с технологией распознавания эмоций для создания систем, способных понимать человеческие эмоции. В 1974 году Збиб основал Interaction Sciences Corporation, чтобы развивать и коммерциализировать свои исследования.
К концу 1960-х несколько групп работали над искусственным интеллектом. Некоторые из самых успешных исследователей в этой области были из лаборатории искусственного интеллекта Массачусетского технологического института, основанной Марвином Мински и Гербертом А. Саймоном. Успех Массачусетского технологического института можно объяснить разнообразием отдельных исследователей, их преданностью делу и успехом группы в поиске новых решений важных проблем. К концу 1960-х годов большинство систем искусственного интеллекта не обладали такими возможностями, как люди.
Мински и Саймон представили себе вселенную, в которой интеллект машины представлен программой или набором инструкций. По мере того, как программа работала, она приводила к последовательности логических следствий, называемых «набором позитивных действий». Эти последствия можно найти в словаре ответов, который создаст новый набор объяснений для ребенка. Таким образом, ребенок может делать обоснованные предположения о состоянии дел, создавая петлю обратной связи, которая в правильной ситуации может привести к справедливому и полезному выводу. Однако с системой было две проблемы: ребенок должен был обучаться по программе, и программа должна была быть идеально детализированной. Ни один программист не мог запомнить все правила, которым ребенок должен был следовать, или набор ответов, которые ребенок мог иметь.
Чтобы решить эту проблему, Мински и Саймон разработали систему, которую они назвали «учеником фокусника» (позже известная как система мышления, основанная на правилах Мински). Вместо того, чтобы запоминать каждое правило, система следовала процессу: программист записывал утверждение и определял «причины» для различных результатов на основе слов «объяснить», «подтвердить» и «отрицать». Если объяснение соответствовало одной из «причин», то программу необходимо было протестировать и дать обратную связь. Если этого не произошло, необходимо было разработать новый. Если программа была успешной на втором этапе, ей позволялось создавать все больше и больше правил, увеличивая широту ее теорий. Когда он сталкивался с проблемой, его можно было попросить прочитать весь набор правил, чтобы повторно изучить проблему.
Система Мински и Саймона была невероятно мощной, поскольку давала программисту лишь несколько вариантов объяснений. От исследователя не требовалось проходить какие-либо процедуры, кроме написания и ввода требований программы. Это позволило Мински и Саймону создать больше правил и, что более важно, учиться на своих ошибках. В 1979 году система была успешно продемонстрирована на экзамене SAT. Несмотря на то, что в системе было два недостатка, из-за которых она не могла ответить на два из трех вопросов SAT, она набрала 82 процента на вопросы 2 и 3 группы и 75 процентов на вопросы 4 и 5 группы. Система не справлялась со сложными вопросами, которые не укладывались в установленные правила. Обработка больших объемов данных также была медленной, поэтому любые дополнительные детали были отброшены, чтобы ускорить работу системы.
Система также имела некоторые ограничения из-за правил. Правила могут быть определены только на основе ограниченного числа меток. Например, когда даются правила, они должны определять, что означают ярлыки. Их можно применять только к положительным результатам. Однако по мере роста способности системы обрабатывать информацию было показано, что система может совершать ошибки. В частности, если бы ей пришлось применить одну и ту же метку к двум разным объектам (и при этом обнаружить ошибку), он не смог бы провести полезное различие между двумя объектами, а затем решить, какая метка должна быть применима.