какой метод построения ии наиболее распространен в настоящее время
Методы искусственного интеллекта
В данной статье хотелось бы подробно поговорить о таком понятии, как методы искусственного интеллекта. Для того, чтобы понятным языком изложить суть данного понятия, сначала мы должны разобраться с понятием «метода», как такового.
Что такое метод искусственного интеллекта?
У термина «метод» есть множество определений. Так как сфера искусственного интеллекта, в основном, подразумевает знания в области математики, программирования и информационных технологий, то метод, в нашем случае, — путь познания или способ познания какой-либо предметной области, способ достижения цели. А метод искусственного интеллекта — это способ, а фактически, — алгоритм решения какой-либо задачи.
Существует большое количество направлений развития искусственного интеллекта. В рамках этих направлений есть различные методы, которые могут применяться по отдельности или в группах для решения задач, стоящих перед наукой, промышленностью, экономикой, медициной и другими областями.
Классификация методов искусственного интеллекта (ИИ)
Есть разные мнения о том, как классифицировать методы ИИ. Мы предлагаем следующую классификацию, которая состоит из пяти пунктов:
Теперь давайте простыми словами расскажем, что представляет собой каждый метод.
Искусственные нейронные сети
Искусственная нейронная сеть — это преимущественно математический аппарат, хотя иногда в различных парадигмах нейросетей встречаются элементы логики.
Нейронная сеть — математическая модель, прототипом которой служит центральная нервная система человека или животного.
Данный метод ИИ применяется в задачах распознавания образов, прогнозирования, классификации, кластеризации и оптимизации.
Нечёткая логика, нечёткие множества и мягкие вычисления
Нечёткая логика, теория нечётких множеств, нечёткие рассуждения, мягкие вычисления — всё это близкие или тесно связанные между собой понятия, относящиеся к более высокому уровню работы центральной нервной системы, нежели искусственные нейронные сети. Методы нечеткой логики используются в экпертных системах, системах управления объектом.
Нечёткая логика в большей степени связана с качественной оценкой анализируемых процессов и явлений и принятием решений на основе этой качественной оценки.
Эволюционное или многоагентное моделирование
В рамках данной группы методов рассматривается концепция не индивидуального, а коллективного интеллекта.
Эволюционное моделирование целесообразно применять тогда, когда пространство поиска решения настолько большое и сложно устроенное, что традиционные и более простые методы просто неспособны выполнить глобальный поиск решения или способны, но на это потребуется неприемлемо много времени.
Экспертные системы. Поддержка принятия решений
Экспертная система — это искусственный аналог лица, принимающего решения, или, как минимум, эксперта-консультанта предметной области.
Структура и логико-математический аппарат экспертной системы определяются, в первую очередь, её назначением и предметной областью. Сами решения, предлагаемые системой, могут вырабатываться с использованием различных механизмов вывода. Наиболее близкий аналог человеческому механизму вывода — это аппарат нечёткой логики и теории нечётких множеств.
Machine Learning, Data Mining, Data Science
Machine Learning (машинное обучение) — это целый класс методов искусственного интеллекта. Все они подразумевают решение задач не напрямую, а путем предварительного обучения как до, так и в процессе принятия решения.
Data mining. Данный термин введён Григорием Пятецким-Шапиро в 1989 году
По сути — это собирательное название, которое применяется для обозначения целой группы методов обнаружения определенных закономерностей в общем объеме данных, которые могут получены в различных сферах человеческой деятельности. Например, методы Data Mining могут быть использованы для больших данных (Big Data), накопленных в розничных продажах, для подтверждения каких-либо гипотез и принятия управленческих решений.
Выводы
Мы рассмотрели 5 основных групп методов искусственного интеллекта согласно нашей классификации и дали небольшие пояснения касательно каждого из них.
В других постах мы рассмотрим каждый метод более подробно.
Всё, что вам нужно знать об ИИ — за несколько минут
Приветствую читателей Хабра. Вашему вниманию предлагается перевод статьи «Everything you need to know about AI — in under 8 minutes.». Содержание направлено на людей, не знакомых со сферой ИИ и желающих получить о ней общее представление, чтобы затем, возможно, углубиться в какую-либо конкретную его отрасль.
Знать понемногу обо всё иногда (по крайней мере, для новичков, пытающихся сориентироваться в популярных технических направлениях) бывает полезнее, чем знать много о чём-то одном.
Многие люди думают, что немного знакомы с ИИ. Но эта область настолько молода и растёт так быстро, что прорывы совершаются чуть ли не каждый день. В этой научной области предстоит открыть настолько многое, что специалисты из других областей могут быстро влиться в исследования ИИ и достичь значимых результатов.
Эта статья — как раз для них. Я поставил себе целью создать короткий справочный материал, который позволит технически образованным людям быстро разобраться с терминологией и средствами, используемыми для разработки ИИ. Я надеюсь, что этот материал окажется полезным большинству интересующихся ИИ людей, не являющихся специалистами в этой области.
Введение
Искусственный интеллект (ИИ), машинное обучение и нейронные сети — термины, используемые для описания мощных технологий, базирующихся на машинном обучении, способных решить множество задач из реального мира.
В то время, как размышление, принятие решений и т.п. сравнительно со способностями человеческого мозга у машин далеки от идеала (не идеальны они, разумеется, и у людей), в недавнее время было сделано несколько важных открытий в области технологий ИИ и связанных с ними алгоритмов. Важную роль играет увеличивающееся количество доступных для обучения ИИ больших выборок разнообразных данных.
Область ИИ пересекается со многими другими областями, включая математику, статистику, теорию вероятностей, физику, обработку сигналов, машинное обучение, компьютерное зрение, психологию, лингвистику и науку о мозге. Вопросы, связанные с социальной ответственностью и этикой создания ИИ притягивают интересующихся людей, занимающихся философией.
Мотивация развития технологий ИИ состоит в том, что задачи, зависящие от множества переменных факторов, требуют очень сложных решений, которые трудны к пониманию и сложно алгоритмизируются вручную.
Растут надежды корпораций, исследователей и обычных людей на машинное обучение для получения решений задач, не требующих от человека описания конкретных алгоритмов. Много внимания уделяется подходу «чёрного ящика». Программирование алгоритмов, используемых для моделирования и решения задач, связанных с большими объёмами данных, занимает у разработчиков очень много времени. Даже когда нам удаётся написать код, обрабатывающий большое количество разнообразных данных, он зачастую получается очень громоздким, трудноподдерживаемым и тяжело тестируемым (из-за необходимости даже для тестов использовать большое количество данных).
Современные технологии машинного обучения и ИИ вкупе с правильно подобранными и подготовленными «тренировочными» данными для систем могут позволить нам научить компьютеры «программировать» за нас.
Обзор
Интеллект — способность воспринимать информацию и сохранять её в качестве знания для построения адаптивного поведения в среде или контексте
Это определение интеллекта из (англоязычной) Википедии может быть применено как к органическому мозгу, так и к машине. Наличие интеллекта не предполагает наличие сознания. Это — распространённое заблуждение, принесённое в мир писателями научной фантастики.
Попробуйте поискать в интернете примеры ИИ — и вы наверняка получите хотя бы одну ссылку на IBM Watson, использующий алгоритм машинного обучения, ставший знаменитым после победы на телевикторине под названием «Jeopardy» в 2011 г. С тех пор алгоритм претерпел некоторые изменения и был использован в качестве шаблона для множества различных коммерческих приложений. Apple, Amazon и Google активно работают над созданием аналогичных систем в наших домах и карманах.
Обработка естественного языка и распознавание речи стали первыми примерами коммерческого использования машинного обучения. Вслед за ними появились задачи другие задачи автоматизации распознавания (текст, аудио, изображения, видео, лица и т.д.). Круг приложений этих технологий постоянно растёт и включает в себя беспилотные средства передвижения, медицинскую диагностику, компьютерные игры, поисковые движки, спам-фильтры, борьбу с преступностью, маркетинг, управление роботами, компьютерное зрение, перевозки, распознавание музыки и многое другое.
ИИ настолько плотно вошёл в современные используемые нами технологии, что многие даже не думают о нём как об «ИИ», то есть, не отделяют его от обычных компьютерных технологий. Спросите любого прохожего, есть ли искусственный интеллект в его смартфоне, и он, вероятно, ответит: «Нет». Но алгоритмы ИИ находятся повсюду: от предугадывания введённого текста до автоматического фокуса камеры. Многие считают, что ИИ должен появиться в будущем. Но он появился некоторое время назад и уже находится здесь.
Термин «ИИ» является довольно обобщённым. В фокусе большинства исследований сейчас находится более узкое поле нейронных сетей и глубокого обучения.
Как работает наш мозг
Человеческий мозг представляет собой сложный углеродный компьютер, выполняющий, по приблизительным оценкам, миллиард миллиардов операций в секунду (1000 петафлопс), потребляющий при этом 20 Ватт энергии. Китайский суперкомпьютер под названием «Tianhe-2» (самый быстрый в мире на момент написания статьи) выполняет 33860 триллионов операций в секунду (33.86 петафлопс) и потребляющий при этом 17600000 Ватт (17.6 Мегаватт). Нам предстоит проделать определённое количество работы перед тем, как наши кремниевые компьютеры смогут сравниться со сформировавшимися в результате эволюции углеродными.
Точное описание механизма, применяемого нашим мозгом для того, чтобы «думать» является предметом дискуссий и дальнейших исследований (лично мне нравится теория о том, что работа мозга связана с квантовыми эффектами, но это — тема для отдельной статьи). Однако, механизм работы частей мозга обычно моделируется с помощью концепции нейронов и нейронных сетей. Предполагается, что мозг содержит примерно 100 миллиардов нейронов.
Нейроны взаимодействуют друг с другом с помощью специальных каналов, позволяющих им обмениваться информацией. Сигналы отдельных нейронов взвешиваются и комбинируются друг с другом перед тем, как активировать другие нейроны. Эта обработка передаваемых сообщений, комбинирование и активация других нейронов повторяется в различных слоях мозга. Учитывая то, что в нашем мозгу находится 100 миллиардов нейронов, совокупность взвешенных комбинаций этих сигналов устроена довольно сложно. И это ещё мягко сказано.
Но на этом всё не заканчивается. Каждый нейрон применяет функцию, или преобразование, к взвешенным входным сигналам перед тем, как проверить, достигнут ли порог его активации. Преобразование входного сигнала может быть линейным или нелинейным.
Изначально входные сигналы приходят из разнообразных источников: наших органов чувств, средств внутреннего отслеживания функционирования организма (уровня кислорода в крови, содержимого желудка и т.д.) и других. Один нейрон может получать сотни тысяч входных сигналов перед принятием решения о том, как следует реагировать.
Мышление (или обработка информации) и полученные в результате его инструкции, передаваемые нашим мышцам и другим органам являются результатом преобразования и передачи входных сигналов между нейронами из различных слоёв нейронной сети. Но нейронные сети в мозгу могут меняться и обновляться, включая изменения алгоритма взвешивания сигналов, передаваемых между нейронами. Это связано с обучением и накоплением опыта.
Эта модель человеческого мозга использовалась в качестве шаблона для воспроизведения возможностей мозга в компьютерной симуляции — искуственной нейронной сети.
Искусственные Нейронные Сети (ИНС)
Искусственные Нейронные Сети — это математические модели, созданные по аналогии с биологическими нейронными сетями. ИНС способны моделировать и обрабатывать нелинейные отношения между входными и выходными сигналами. Адаптивное взвешивание сигналов между искусственными нейронами достигается благодаря обучающемуся алгоритму, считывающему наблюдаемые данные и пытающемуся улучшить результаты их обработки.
Для улучшения работы ИНС применяются различные техники оптимизации. Оптимизация считается успешной, если ИНС может решать поставленную задачу за время, не превышающее установленные рамки (временные рамки, разумеется, варьируются от задачи к задаче).
ИНС моделируется с использованием нескольких слоёв нейронов. Структура этих слоёв называется архитектурой модели. Нейроны представляют собой отдельные вычислительные единицы, способные получать входные данные и применять к ним некоторую математическую функцию для определения того, стоит ли передавать эти данные дальше.
В простой трёхслойной модели первый слой является слоем ввода, за ним следует скрытый слой, а за ним — слой вывода. Каждый слой содержит не менее одного нейрона.
С усложнением структуры модели посредством увеличения количества слоёв и нейронов возрастают потенциал решения задач ИНС. Однако, если модель оказывается слишком «большой» для заданной задачи, её бывает невозможно оптимизировать до нужного уровня. Это явление называется переобучением (overfitting).
Архитектура, настройка и выбор алгоритмов обработки данных являются основными составляющими построения ИНС. Все эти компоненты определяют производительность и эффективность работы модели.
Модели часто характеризуются так называемой функцией активации. Она используется для преобразования взвешенных входных данных нейрона в его выходные данные (если нейрон решает передавать данные дальше, это называется его активацией). Существует множество различных преобразований, которые могут быть использованы в качестве функций активации.
ИНС являются мощным средством решения задач. Однако, хотя математическая модель небольшого количества нейронов довольно проста, модель нейронной сети при увеличении количества составляющих её частей становится довольно запутанно. Из-за этого использование ИНС иногда называют подходом «чёрного ящика». Выбор ИНС для решения задачи должен быть тщательно обдуманным, так как во многих случаях полученное итоговое решение нельзя будет разобрать на части и проанализировать, почему оно стало именно таким.
Глубокое обучение
Термин глубокое обучение используется для описания нейронных сетей и используемых в них алгоритмах, принимающих «сырые» данные (из которых требуется извлечь некоторую полезную информацию). Эти данные обрабатываются, проходя через слои нейросети, для получения нужных выходных данных.
Обучение без учителя (unsupervised learning) — область, в которой методики глубокого обучения отлично себя показывают. Правильно настроенная ИНС способна автоматически определить основные черты входных данных (будь то текст, изображения или другие данные) и получить полезный результат их обработки. Без глубокого обучения поиск важной информации зачастую ложится на плечи программиста, разрабатывающего систему их обработки. Модель глубокого обучения же самостоятельно способна найти способ обработки данных, позволяющий извлекать из них полезную информацию. Когда система проходит обучение (то есть, находит тот самый способ извлекать из входных данных полезную информацию), требования к вычислительной мощности, памяти и энергии для поддержания работы модели сокращаются.
Проще говоря, алгоритмы обучения позволяют с помощью специально подготовленных данных «натренировать» программу выполнять конкретную задачу.
Глубокое обучение применяется для решения широкого круга задач и считается одной из инновационных ИИ-технологий. Существуют также другие виды обучения, такие как обучение с учителем (supervised learning) и обучение с частичным привлечением учителя(semi-supervised learning), которые отличаются введением дополнительного контроля человека за промежуточными результатами обучения нейронной сети обработке данных (помогающего определить, в правильном ли направлении движется система).
Теневое обучение (shadow learning) — термин, используемый для описания упрощённой формы глубокого обучения, при которой поиск ключевых особенностей данных предваряется их обработкой человеком и внесением в систему специфических для сферы, к которой относятся эти данные, сведений. Такие модели бывают более «прозрачными» (в смысле получения результатов) и высокопроизводительными за счёт увеличения времени, вложенного в проектирование системы.
Основы подхода к построению универсального интеллекта. Часть 2
Краткий анализ существующих подходов к сильному ИИ.
Когнитивные архитектуры.
При создании сильного ИИ естественно воспроизводить, если не все детали работы человеческого мозга, то, по крайней мере, те функции, которые он выполняет. В противном случае, очень сложно быть уверенным, что создается именно интеллект. Именно такую цель и преследуют когнитивные архитектуры, которые объединяют такие функции, как обучение, память, планирование и т.д., то есть все (или почти все) то, что есть в естественном интеллекте. Это и делает когнитивные архитектуры столь привлекательными и популярными.
Однако само по себе желание наделить компьютер всеми теми же когнитивными функциями, которые есть у человека, не говорит о том, как это правильно сделать. В результате к настоящему моменту разработано множество когнитивных архитектур, ряд из которых нередко позиционируется как путь к построению сильного ИИ. К ним, в частности, относится такие популярные у «строителей сильного ИИ» архитектуры, как Soar и ACT-R.
Многие архитектуры зачастую отталкиваются от феноменологии высших когнитивных функций человеческого разума. Однако из-за отсутствия полного понимания природы этих функций и требований к ним их реализации оказываются во многом произвольными.
Нередко даже построение подобных архитектур ведется в рамках традиционного символьного подхода, моделирующего лишь «вершину айсберга» человеческого мышления. Тем не менее, нередко производится и попытка построения ахритектур, воспроизводящих не только высокоуровневые, но и низкоуровневые функции (т.н. эмерджентные архитектуры). Более того, исследователи ИИ хорошо понимают необходимость объединения символьных и субсимвольных уровней и разработку гибридных архитектур, а также необходимость построения воплощенных систем (являющихся ключевыми, в частности, для получения семантической основы понятий), которые в сугубо символьных архитектурах реализовывать весьма проблематично (см. [Duch et al., 2008] в качестве обзора).
Тем не менее, отмечается [Duch et al., 2008], что весьма нечасто удается применять для решения реальных задач, не говоря уже о том, чтобы масштабировать до уровня автономного поведения в реальном мире. Так почему же когнитивные архитектуры не привели к существенному прогрессу в области сильного ИИ? Ответ на этот вопрос уже дан выше.
Эти системы, вероятнее всего, обречены на неуниверсальность, поскольку собираются из слабых компонент. Это, видимо, относится и к таким системам, исходно позиционировавшимся в качестве систем общего интеллекта, как Novamente (описание которой дано в [Goertzel and Pennachin, 2007]). Конечно, не исключена возможность внесения свойства универсальности как расширения той или иной архитектуры (в конце концов, универсальность интеллекта вряд ли можно приписывать большинству животных, а, значит, она появилась как эволюционная надстройка над более частными формами интеллекта). Тем не менее, такой путь нам представляется более трудоемким и менее оптимальным.
Подход на основе ресурсных ограничений.
Данный подход отталкивается от следующего определения, данного П. Вангом [Wang, 2007]:
Intelligence is the capacity of a system to adapt to its environment while operating with insufficient knowledge and resources, где адаптация (как способность учиться на опыте) является достаточно обычным требованием, тогда как основные особенности подхода выводятся из недостатка ресурсов и знаний (поскольку, когда ресурсов и информации достаточно, могут использоваться и не вполне интеллектуальные методы). Как следствие, в рамках этого подхода строится вариант категориальной логики для учета нечеткости знаний, а также предлагается распределенная система манипулирования знаниями, в которой учитывается ограниченность вычислительных ресурсов.
При этом автор предлагает разделять понятия «интеллектуальный» и «эффективно интеллектуальный». Такое разделение представляется вполне справедливым и отражает то интуитивное впечатление, что, например, шахматная программа, работающая методом «грубой силы», является интеллектуальной не в том же смысле, в котором является интеллектуальным шахматист.
Хотя с самим принципом эффективного интеллекта можно согласиться, данный конкретный подход вряд ли может стать основой для построения СИИ: в нем упускается те аспекты интеллекта, которые выявлены в универсальных алгоритмических моделях и в когнитивных архитектурах. Иными словами, сам тезис о необходимости ресурсных ограничений не говорит о том, как правильно их вводить.
В частности, это видно из того факта, что П. Ванг ввел как основополагающий принцип также недостаток знаний у агента. Недостаток знаний, конечно же, важен, но он вполне учитывается в (критикуемых Вангом) моделях универсального алгоритмического интеллекта, которые включают не только поиск в пространстве действий, но и универсальный индуктивный вывод, для которого учет нечеткости знаний является не основополагающим принципом, а лишь эвристикой для упрощения перебора моделей (что будет продемонстрировано позднее).
В итоге в рамках этого подхода разработана лишь частная когнитивная архитектура, не обладающая принципиальными преимуществами по сравнению с прочими, хотя систематическое следование принципам ограниченности ресурсов и обладает значительной эвристической силой.
Универсальный алгоритмический интеллект.
Сама идея данного подхода известна давно, но получил он признание сравнительно недавно в основном через работы [Hutter, 2001], [Schmidhuber, 2003] и другие работы этих авторов. В его рамках основной упор делается на модели универсальной индукции Соломонова, включенные в систему выбора действий в окружающей среде для максимизации некоторой оценивающей функции.
Здесь анализ начинается с простой универсальной модели, на которую не накладываются ресурсные ограничения. Первый шаг нашего подхода аналогичен, так как мы полагаем, что свойство универсальности крайне желательно сразу вводить в модель универсального ИИ и поддерживать сохранение этого свойства при развитии модели, которое осуществляется путем ввода ресурсных ограничений.
В современных версиях рассматриваемых подходов ресурсные ограничения также вводятся, но с сохранением максимальной непредвзятости универсального ИИ, что позволяет строить общие модели самооптимизации.
Такой учет ограничений на ресурсы, однако, не вполне достаточен. Можно сказать, что он требует воспроизводства целиком эволюции, которая также начиналась как универсальный самооптимизирующийся поиск без какой-либо априорной информации. Очевидно, чтобы становление подобного универсального интеллекта могло быть осуществлено за обозримое время, необходимо в него закладывать как достаточно большой объем априорной информации о структуре внешнего мира, так и эвристики для сокращения перебора вариантов моделей и действий. Эти эвристики как раз можно почерпнуть из феноменологии когнитивных функций естественного интеллекта. С другой стороны, в сильный ИИ нерационально вручную закладывать слишком большой объем специфичных знаний, которые он может почерпнуть самостоятельно (чем грешат такие проекты, как, например, Cyc). Очевидно, необходимо достижение оптимального компромисса между этими двумя крайностями.
Помимо этого, отдельный вопрос для обсуждения заключается в том, а действительно ли представленные модели являются универсальными. Для этого необходимо тщательно сравнить гипотетические возможности этих моделей с возможностями человека. Отчасти такие сравнения проводятся (например, [Hutter, 2005]), хотя их нельзя назвать бесспорными или исчерпывающими. Тем не менее, сомнения в действительной универсальности этих моделей вполне можно выдвинуть, что будет показано при анализе нашей собственной модели универсального алгоритмического интеллекта.
Сейчас отметим лишь одно из таких сомнений, которое заключается в том, что интеллект лишь в нулевом приближении можно свести к максимизации априорно заданной целевой функции. Ведь если, скажем, задача интеллекта заключается в обеспечении выживания, то априорно заданная целевая функция (базирующаяся, скажем, на эмоциональных оценках) может быть лишь грубой эвристической аппроксимацией цели выживания. Это означает необходимость существования специальных механизмов, позволяющих каким-то образом уточнять целевую функцию в онтогенезе. Здесь можно привести следующую аналогию с шахматами. Пусть один интеллектуальный агент может сыграть только одну партию. Имея ограниченные вычислительные ресурсы, он не может осуществить полный перебор вариантов, чтобы предсказать победу или поражение. Рождаясь с минимумом априорных знаний о мире, он не может иметь сложную целевую функцию, которая бы позволяла эффективно отсекать неперспективные варианты на дереве игры. Исходная целевая функция может опираться лишь на какие-то непосредственно воспринимаемые стимулы, скажем на суммарную силу фигур (дающую ощущение боли и удовольствия при потере своей фигуры или съедении фигуры соперника). В процессе взросления (игры) агент может построить более сложные понятия, но самостоятельно (не прожив жизнь целиком) он в принципе не сможет определить, как на основе этих понятий можно улучшить целевую функцию. Эту информацию ему, однако, могут дать другие агенты, но только при условии, что имеется некий хороший механизм модификации целевой функции. Этот аспект имеет отношение и к проблеме дружественного ИИ…
Подход на основе обучения целевым функциям.
Проблема обучения целевым функциям иногда рассматривается в качестве основополагающей при построении сильного ИИ (или, точнее, дружественного ИИ [Yudkowsky, 2011]). В рамках этого подхода совершенно справедливо замечается, что максимизация априорной целевой функции недостаточна для того, чтобы искусственный интеллект оказался универсальным, особенно, в части эффективного (и желаемого) взаимодействия с социальным окружением, которое является таким же элементом объективной реальности, как и физическое окружение.
Проблема наделения ИИ способностью к модификации собственной целевой функции нетривиальна в силу того, что не ясно, как целевая функция может оптимизироваться, если не под управлением другой целевой функции (или каких-то других априорных механизмов). Важность возможности модификации целевой функции связана не только с тем, что это необходимо для полноценной универсальности агента, но и с тем, что ИИ, стремящийся к максимизации априорной целевой функции вполне может найти такие действия, оптимальные с точки зрения этой функции, которые окажутся крайне нежелательными для людей [Yudkowsky, 2011]. Хотя важность этих аспектов бесспорна, их рассмотрение вне конкретных моделей универсального интеллекта не позволяет наметить путь создания сильного ИИ (а, скорее, задает некоторые ограничения на пути его создания), поэтому данный подход следует считать комплементарным другим подходам. Возможность модификации целевой функции необходимо предусмотреть в архитектуре универсального интеллектуального агента, хотя в целом это можно рассматривать на том же уровне, что и другие когнитивные функции, а именно, как специфическую эвристику повышения эффективности развития «младенческого» ИИ до уровня «взрослого» ИИ.
Адаптивное поведение, самоорганизация и бионика в целом.
Существует большое направление исследований в области сильного ИИ, связанное с бионическим подходом. Здесь выделяются попытки (см., напр., [Garis, 2007] [Red’ko, 2007]) моделирования мозга на разных уровнях детальности, воспроизведения адаптивного поведения, начиная с простейших его форм к более сложным, моделирования эволюции, самоорганизации в целом. Зачастую этот подход носит имитационный характер и достаточно жестко противопоставляется алгоритмическому подходу, из-за чего оказывается недостаточно глубоким. В частности, разные имитационные модели эволюции и самоорганизации не приводят к неограниченному развитию по той простой причине, что их авторы даже не пытаются рассматривать вопросы, связанные с вычислительной сложностью решаемых оптимизационных проблем и алгоритмической полнотой тех форм поведения, которые в принципе могут получиться в ходе этого моделирования. Из-за этого весьма сомнительно, что бионический подход сам по себе может привести к созданию сильного ИИ. Однако в то же время он может служить важным источником продуктивных идей, пренебрегать которым было бы слишком расточительно.
Выводы.
Как видно, разные существующие подходы к сильному ИИ не столько противоречат друг другу, сколько рассматривают разные аспекты проблемы универсального ИИ, в связи с чем необходимо осуществлять их объединение. Естественно, существует и множество интеграционных подходов, пытающихся выполнить синтез разных имеющихся систем и методов, поэтому идея интеграции в целом не нова. Однако зачастую эта интеграция ограничивается объединением слабых методов, либо же частичным расширением универсальных алгоритмических моделей ИИ. Недостаточная «глубина» интеграции видна по тому факту, что сторонники перечисленных подходов предпочитают их противопоставлять друг другу, критикуя недостатки конкурентных подходов. Здесь же речь идет, скорее, о разработке нового подхода, осуществляющего учет основных ранее полученных результатов и идей на гораздо более глубоком концептуальном уровне (при этом, правда, далеко не всегда легко установить связь между разными подходами).
Необходимо начать с простейших моделей в случае неограниченных ресурсов; убедиться в их универсальности или установить, чего не хватает для ее достижения, что может быть учтено впоследствии. Далее следует рассмотреть универсальные модели с ограничением на вычислительные ресурсы. Такие модели могут быть также относительно просты, но должны включать самооптимизацию. Далее должна вводиться априорная информация о свойствах мира (наиболее общие из которых обусловят особенности когнитивной архитектуры) для сокращения времени становления ИИ, то есть приобретения им автономности.