2.2. Системы искусственного интелекта
В понятие "искусственный интеллект" вкладывается различный смысл – от признания
интеллекта у ЭВМ, решающих логические или даже любые вычислительные задачи, до отнесения к интеллектуальным лишь тех систем, которые решают весь комплекс задач, осущест-
вляемых человеком, или еще более широкую их совокупность. Мы постараемся вычленить
тот смысл понятия "искусственный интеллект", который в наибольшей степени соответствует реальным исследованиям в этой области.
Как отмечалось, в исследованиях по искусственному интеллекту ученые отвлекаются от
сходства процессов, происходящих в технической системе или в реализуемых ею программах, с мышлением человека. Если система решает задачи, которые человек обычно решает
посредством своего интеллекта, то мы имеем дело с системой искусственного интеллекта.
Однако это ограничение недостаточно. Создание традиционных программ для ЭВМ –
работа программиста – не есть конструирование искусственного интеллекта. Какие же задачи, решаемые техническими системами, можно рассматривать как проявление искусственно-
го интеллекта?
Чтобы ответить на этот вопрос, надо уяснить прежде всего, что такое задача. Как отмечают психологи, этот термин тоже не является достаточно определенным. По-видимому, в
качестве исходного можно принять понимание задачи как мыслительной задачи, существующее в психологии. Они подчеркивают, что задача есть только тогда, когда есть работа
для мышления, т.е. когда имеется некоторая цель, а средства к ее достижению не ясны; их
надо найти посредством мышления. Хорошо по этому поводу сказал Д. Пойа: "...трудность
решения в какой-то мере входит в самопонятие задачи: там, где нет трудности, нет и задачи".
Если человек имеет очевидное средство, с помощью которого наверное можно осуществить
желание, поясняет он, то задачи не возникает. Если человек обладает алгоритмом решения
некоторой задачи и имеет физическую возможность его реализации, то задачи в собственном
смысле уже не существует.
Так понимаемая задача в сущности тождественна проблемной ситуации, и решается она
посредством преобразования последней. В ее решении участвуют не только условия, которые непосредственно заданы. Человек использует любую находящуюся в его памяти инфор-
мацию, "модель мира", имеющуюся в его психике и включающую фиксацию разнообразных
законов, связей, отношений этого мира.
Если задача не является мыслительной, то она решается на ЭВМ традиционными методами и, значит, не входит в круг задач искусственного интеллекта. Ее интеллектуальная
часть выполнена человеком. На долю машины осталась часть работы, которая не требует
участия мышления, т.е. "безмысленная", неинтеллектуальная.
Под словом "машина" здесь понимается машина вместе с ее совокупным математическим обеспечением, включающим не только программы, но и необходимые для решения за-
дач "модели мира". Недостатком такого понимания является главным образом его антропоморфизм. Задачи, решаемые искусственным интеллектом, целесообразно определить таким
образом, чтобы человек по крайней мере в определении отсутствовал. При характеристике
мышления мы отмечали, что его основная функция заключается в выработке схем целесообразных внешних действий в бесконечно варьирующих условиях. Специфика человеческого
мышления (в отличие от рассудочной деятельности животных) состоит в том, что человек
вырабатывает и накапливает знания, храня их в своей памяти. Выработка схем внешних действий происходит не по принципу "стимул–реакция", а на основе знаний, получаемых до-
полнительно из среды, для поведения в которой вырабатывается схема действия.
Этот способ выработки схем внешних действий (а не просто действия по командам,
пусть даже меняющимся как функции от времени или как однозначно определенные функции от результатов предшествующих шагов), на наш взгляд, является существенной характе-
ристикой любого интеллекта. Отсюда следует, что к системам искусственного интеллекта
относятся те, которые, используя заложенные в них правила переработки информации, вырабатывают новые схемы целесообразных действий на основе анализа моделей среды, хра-
нящихся в их памяти. Способность к перестройке самих этих моделей в соответствии с вновь
поступающей информацией является свидетельством более высокого уровня искусственного
интеллекта.
Большинство исследователей считают наличие собственной внутренней модели мира у
технических систем предпосылкой их "интеллектуальности". Формирование такой модели,
как мы покажем ниже, связано с преодолением синтаксической односторонности системы,
т.е. с тем, что символы или та их часть, которой оперирует система, интерпретированы,
имеют семантику.
Характеризуя особенности систем искусственного интеллекта, Л.Т. Кузин указывает на:
1) наличие в них собственной внутренней модели внешнего мира; эта модель обеспечивает индивидуальность, относительную самостоятельность системы в оценке ситуации, воз-
можность семантической и прагматической интерпретации запросов к системе;
2) способность пополнения имеющихся знаний;
3) способность к дедуктивному выводу, т.е. к генерации информации, которая в явном
виде не содержится в системе; это качество позволяет системе конструировать информационную структуру с новой семантикой и практической направленностью;
4) умение оперировать в ситуациях, связанных с различными аспектами нечеткости,
включая "понимание" естественного языка;
5) способность к диалоговому взаимодействию с человеком;
6) способность к адаптации.
На вопрос, все ли перечисленные условия обязательны, необходимы для признания системы интеллектуальной, ученые отвечают по-разному. В реальных исследованиях, как пра-
вило, признается абсолютно необходимым наличие внутренней модели внешнего мира, и
при этом считается достаточным выполнение хотя бы одного из перечисленных выше условий.
Армер П. выдвинул мысль о "континууме интеллекта": различные системы могут сопоставляться не только как имеющие и не имеющие интеллекта, но и по степени его развития.
При этом, считает он, желательно разработать шкалу уровня интеллекта, учитывающую степень развития каждого из его необходимых признаков. Известно, что в свое время
А. Тьюринг предложил в качестве критерия, определяющего, может ли машина мыслить,
"игру в имитацию". Согласно этому критерию, машина может быть признана мыслящей, если человек, ведя с ней диалог по достаточно широкому кругу вопросов, не сможет отличить
ее ответов от ответов человека.
Критерий Тьюринга в литературе был подвергнут критике с различных точек зрения. На
наш взгляд, действительно серьезный аргумент против этого критерия заключается в том,
что в подходе Тьюринга ставится знак тождества между способностью мыслить и способностью к решению задач переработки информации определенною типа. Успешная "игра в ими-
тацию" не может без предварительного тщательного анализа мышления как целостности
быть признана критерием ее способности к мышлению.
Однако этот аргумент бьет мимо цели, если мы говорим не о мыслящей машине, а об искусственном интеллекте, который должен лишь продуцировать физические тела знаков, ин-
терпретируемые человеком в качестве решений определенных задач. Поэтому прав В.М.
Глушков, утверждая, что наиболее естественно, следуя Тьюрингу, считать, что некоторое
устройство, созданное человеком, представляет собой искусственный интеллект, если, ведя с
ним достаточно долгий диалог по более или менее широкому кругу вопросов, человек не
сможет различить, разговаривает он с разумным живым существом или с автоматическим
устройством. Если учесть возможность разработки программ, специально рассчитанных на
введение в заблуждение человека, то, возможно, следует говорить не просто о человеке, а о
специально подготовленном эксперте. Этот критерий, на наш взгляд, не противоречит перечисленным выше особенностям системы искусственного интеллекта.
Но что значит по "достаточно широкому кругу вопросов", о котором идет речь в критерии Тьюринга и в высказывании В.М. Глушкова? На начальных этапах разработки проблемы
искусственного интеллекта ряд исследователей, особенно занимающихся эвристическим
программированием, ставили задачу создания интеллекта, успешно функционирующего в
любой сфере деятельности. Это можно назвать разработкой "общего интеллекта". Сейчас
большинство работ направлено на создание "профессионального искусственного интеллекта", т.е. систем, решающих интеллектуальные задачи из относительно ограниченной области
(например, управление портом, интегрирование функций, доказательство теорем геометрии
и т.п.). В этих случаях "достаточно широкий круг вопросов" должен пониматься как соответствующая область предметов.
Исходным пунктом наших рассуждений об искусственном интеллекте было определение
такой системы как решающей мыслительные задачи. Но перед нею ставятся и задачи, которые люди обычно не считают интеллектуальными, поскольку при их решении человек созна-
тельно не прибегает к перестройке проблемных ситуаций. К их числу относится, например,
задача распознания зрительных образов. Человек узнает человека, которого видел один-два
раза, непосредственно в процессе чувственного восприятия. Исходя из этого кажется, что эта
задача не является интеллектуальной. Но в процессе узнавания человек не решает мыслительных задач лишь постольку, поскольку программа распознания не находится в сфере
осознанного. Но так как в решении таких задач на неосознанном уровне участвует модель
среды, хранящаяся в памяти, то эти задачи в сущности являются интеллектуальными. Соответственно и система, которая ее решает, может считаться интеллектуальной. Тем более это
относится к "пониманию" машиной фраз на естественном языке, хотя человек в этом не усматривает обычно проблемной ситуации.
Теория искусственного интеллекта при решении многих задач сталкивается с гносеологическими проблемами.
Одна из таких проблем состоит в выяснении вопроса, доказуема ли теоретически (математически) возможность или невозможность искусственного интеллекта. На этот счет суще-
ствуют две точки зрения. Одни считают математически доказанным, что ЭВМ в принципе
может выполнить любую функцию, осуществляемую естественным интеллектом. Другие полагают в такой же мере доказанным математически, что есть проблемы, решаемые человече-
ским интеллектом, которые принципиально недоступны ЭВМ. Эти взгляды высказываются
как кибернетиками, так и философами.
Проблема искусственного интеллекта
Гносеологический анализ проблемы искусственного интеллекта вскрывает роль таких
познавательных орудий, как категории, специфическая семиотическая система, логические
структуры, ранее накопленное знание. Они обнаруживаются не посредством исследования
физиологических или психологических механизмов познавательного процесса, а выявляются
в знании, в его языковом выражении. Орудия познания, формирующиеся в конечном счете
на основе практической деятельности, необходимы для любой системы, выполняющей
функции абстрактного мышления, независимо от ее конкретного материального субстрата и
структуры. Поэтому, чтобы создать систему, выполняющую функции абстрактного мышления, т.е. в конечном счете формирующую адекватные схемы внешних действий в существен-
но меняющихся средах, необходимо наделить такую систему этими орудиями.
Развитие систем искусственного интеллекта за последние десятилетия идет по этому пути. Однако степень продвижения в данном направлении в отношении каждого из указанных
познавательных орудий неодинакова и в целом пока незначительна.
1. В наибольшей мере системы искусственного интеллекта используют формально-
логические структуры, что обусловлено их неспецифичностью для мышления и в сущности
алгоритмическим характером. Это дает возможность относительно легкой их технической
реализации. Однако даже здесь кибернетике предстоит пройти большой путь. В системах искусственного интеллекта еще слабо используются модальная, императивная, вопросная и
иные логики, которые функционируют в человеческом интеллекте и не менее необходимы
для успешных познавательных процессов, чем давно освоенные логикой, а затем и кибернетикой формы вывода. Повышение "интеллектуального" уровня технических систем, безус-
ловно, связано не только с расширением применяемых логических средств, но и с более интенсивным их использованием (для проверки информации на непротиворечивость, конст-
руирование планов вычислений и т.д.).
2. Намного сложнее обстоит дело с семиотическими системами, без которых интеллект
невозможен. Языки, используемые в ЭВМ, еще далеки от семиотических структур, которыми оперирует мышление.
Прежде всего для решения ряда задач необходимо последовательное приближение семиотических систем, которыми наделяется ЭВМ, к естественному языку, точнее, к использо-
ванию его ограниченных фрагментов. В этом плане предпринимаются попытки наделить
входные языки ЭВМ универсалиями языка, например полисемией (которая элиминируется
при обработке в лингвистическом процессоре). Разработаны проблемно-ориентированные
фрагменты естественных языков, достаточные для решения системой ряда практических задач. Наиболее важным итогом этой работы является создание семантических языков (и их
формализация), в которых слова-символы имеют интерпретацию.
Однако многие универсалии естественных языков, необходимые для выполнения ими познавательных функций, в языках искусственного интеллекта пока реализованы слабо (напри-
мер, открытость) или используются ограниченно (например, полисемия). Все большее воплощение в семиотических системах универсалий естественного языка, обусловленных его позна-
вательной функцией, выступает одной из важнейших линий совершенствования систем искусственного интеллекта, особенно тех, в которых проблемная область заранее жестко не опреде-
лена.
Современные системы искусственного интеллекта способны осуществлять перевод с одномерных языков на многомерные. В частности, они могут строить диаграммы, схемы, чер-
тежи, графы, высвечивать на экранах кривые и т.д. ЭВМ производят и обратный перевод
(описывают графики и тому подобное с помощью символов). Такого рода перевод является
существенным элементом интеллектуальной деятельности. Но современные системы искусственного интеллекта пока не способны к непосредственному (без перевода на символиче-
ский язык) использованию изображений или воспринимаемых сцен для "интеллектуальных"
действий. Поиск путей глобального (а не локального) оперирования информацией составляет
одну из важнейших перспективных задач теории искусственного интеллекта.
3. Воплощение в информационные массивы и программы систем искусственного интеллекта аналогов категорий находится пока в начальной стадии. Аналоги некоторых категорий
(например, "целое", "часть", "общее", "единичное") используются в ряде систем представления знаний, в частности в качестве "базовых отношений", в той мере, в какой это необходи-
мо для тех или иных конкретных предметных или проблемных областей, с которыми взаимодействуют системы.
В формализованном понятийном аппарате некоторых систем представления знаний
предприняты отдельные (теоретически существенные и практически важные) попытки выражения некоторых моментов содержания и других категорий (например, "причина", "след-
ствие"). Однако ряд категорий (например, "сущность", "явление") в языках систем представления знаний отсутствует. Проблема в целом разработчиками систем искусственного интел-
лекта в полной мере еще не осмыслена, и предстоит большая работа философов, логиков и кибернетиков по внедрению аналогов категорий в системы представления знаний и другие ком-
поненты интеллектуальных систем. Это одно из перспективных направлений в развитии теории и практики кибернетики.
4. Современные системы искусственного интеллекта почти не имитируют сложную иерархическую структуру образа, что не позволяет им перестраивать проблемные ситуации,
комбинировать локальные части сетей знаний в блоки, перестраивать эти блоки и т.д.
Не является совершенным и взаимодействие вновь поступающей информации с совокупным знанием, фиксированным в системах. В семантических сетях и фреймах пока недос-
таточно используются методы, благодаря которым интеллект человека легко пополняется
новой информацией, находит нужные данные, перестраивает свою систему знаний и т.д.
5. Еще в меньшей мере современные системы искусственного интеллекта способны ак-
тивно воздействовать на внешнюю среду, без чего не может осуществляться самообучение и
вообще совершенствование "интеллектуальной" деятельности.
Таким образом, хотя определенные шаги к воплощению гносеологических характеристик мышления в современных системах искусственного интеллекта сделаны, но в целом эти
системы еще далеко не владеют комплексом гносеологических орудий, которыми располагает человек и которые необходимы для выполнения совокупности функций абстрактного
мышления. Чем больше характеристики систем искусственного интеллекта будут приближены к гносеологическим характеристикам мышления человека, тем ближе будет их "интел-
лект" к интеллекту человека, точнее, тем выше будет их способность к комбинированию знаковых конструкций, воспринимаемых и интерпретируемых человеком в качестве решения
задач и вообще воплощения мыслей.
В связи с этим возникает сложный вопрос. При анализе познавательного процесса гносеология абстрагируется от психофизиологических механизмов, посредством которых реали-
зуется этот процесс. Но из этого не следует, что для построения систем искусственного интеллекта эти механизмы не имеют значения. Вообще говоря, не исключено, что механизмы,
необходимые для воплощения неотъемлемых характеристик интеллектуальной системы, не
могут быть реализованы в цифровых машинах или даже в любой технической системе,
включающей в себя только компоненты неорганической природы. Иначе говоря, в принципе
не исключено, что хотя мы можем познать все гносеологические закономерности, обеспечивающие выполнение человеком его познавательной функции, но их совокупность реализуема
лишь в системе, в основе своей тождественной человеку.
Такой взгляд обосновывается X. Дрейфусом. "Телесная организация человека, – пишет
он, – позволяет ему выполнять... функции, для которых нет машинных программ – таковые
не только еще не созданы, но даже не существуют в проекте... Эти функции включаются в
общую способность человека к приобретению телесных умений и навыков. Благодаря этой
фундаментальной способности наделенный телом субъект может существовать в окружаю-
щем его мире, не пытаясь решить невыполнимую задачу формализации всего и вся".
Как отмечает Б.В. Бирюков, подчеркивание значения "телесной организации" для понимания особенностей психических процессов, в частности возможности восприятия, заслу-
живает внимания. Качественные различия в способности конкретных систем отражать мир
тесно связаны с их структурой, которая хотя и обладает относительной самостоятельностью,
но не может преодолеть некоторых рамок, заданных субстратом. В процессе биологической
эволюции совершенствование свойства отражения происходило на основе усложнения нервной системы, т.е. субстрата отражения. Не исключается также, что различие субстратов ЭВМ
и человека может обусловить фундаментальные различия в их способности к отражению, что
ряд функций человеческого интеллекта в принципе недоступен таким машинам.
Иногда в философской литературе утверждается, что допущение возможности выполнения технической системой интеллектуальных функций человека означает сведение высшего
(биологического и социального) к низшему (к системам из неорганических компонентов) и,
следовательно, противоречит материалистической диалектике. Однако в этом рассуждении
не учитывается, что пути усложнения материи однозначно не предначертаны и не исключено, что общество имеет возможность создать из неорганических компонентов (абстрактно
говоря, минуя химическую форму движения) системы не менее сложные и не менее способные к отражению, чем биологические. Созданные таким образом системы являлись бы ком-
понентами общества, социальной формой движения. Следовательно, вопрос о возможности
передачи интеллектуальных функций техническим системам, и в частности о возможности
наделения их рассмотренными в работе гносеологическими орудиями, не может быть решен
только исходя из философских соображений. Он должен быть подвергнут анализу на базе
конкретных научных исследований.
Дрейфус X. подчеркивает, что ЭВМ оперирует информацией, которая не имеет значения,
смысла. Поэтому для ЭВМ необходим перебор огромного числа вариантов. Телесная организация человека, его организма позволяет отличать значимое от незначимого для жизнедетельности и вести поиск только в сфере первого. Для "нетелесной" ЭВМ, утверждает Дрейфус, это недоступно. Конечно, конкретный тип организации тела позволяет человеку ограничивать пространство возможного поиска. Это происходит уже на уровне анализаторной
системы. Совсем иначе обстоит дело в ЭВМ. Когда в кибернетике ставится общая задача,
например распознания образов, то эта задача переводится с чувственно-наглядного уровня
на абстрактный. Тем самым снимаются ограничения, не осознаваемые человеком, но содержащиеся в его "теле", в структуре органов чувств и организма в целом. Они игнорируются
ЭВМ. Поэтому пространство поиска резко увеличивается. Это значит, что к "интеллекту"
ЭВМ предъявляются более высокие требования (поиска в более обширном пространстве),
чем к интеллекту человека, к которому приток информации ограничен физиологической
структурой его тела.
Системы, обладающие психикой, отличаются от ЭВМ прежде всего тем, что им присущи
биологические потребности, обусловленные их материальным, биохимическим субстратом.
Отражение внешнего мира происходит сквозь призму этих потребностей, в чем выражается
активность психической системы. ЭВМ не имеет потребностей, органически связанных с ее
субстратом, для нее как таковой информация незначима, безразлична. Значимость, генетически заданная человеку, имеет два типа последствий. Первый – круг поиска сокращается, и
тем самым облегчается решение задачи. Второй – нестираемые из памяти фундаментальные
потребности организма обусловливают односторонность психической системы. Дрейфус
пишет в связи с этим: "Если бы у нас на Земле очутился марсианин, ему, наверное, пришлось
бы действовать в абсолютно незнакомой обстановке; задача сортировки релевантного и нерелевантного, существенного и несущественного, которая бы перед ним возникла, оказалась
бы для него столь же неразрешимой, как и для цифровой машины, если, конечно, он не сумеет принять в расчет никаких человеческих устремлений". С этим нельзя согласиться. Если
"марсианин" имеет иную биологию, чем человек, то он имеет и иной фундаментальный слой
неотъемлемых потребностей, и принять ему "человеческие устремления" значительно труднее, чем ЭВМ, которая может быть запрограммирована на любую цель.
Животное в принципе не может быть по отношению к этому фундаментальному слою
перепрограммировано, хотя для некоторых целей оно может быть запрограммировано вновь
посредством дрессировки. В этом (но только в этом) смысле потенциальные интеллектуальные возможности машины шире таких возможностей животных. У человека над фундаментальным слоем биологических потребностей надстраиваются социальные потребности, и
информация для него не только биологически, но и социально значима. Человек универсален
и с точки зрения потребностей и с точки зрения возможностей их удовлетворения. Однако
эта универсальность присуща ему как социальному существу, производящему средства целесообразной деятельности, в том числе и системы искусственного интеллекта.
Таким образом, телесная организация не только дает дополнительные возможности, но и
создает дополнительные трудности. Поэтому интеллекту человека важно иметь на вооружении системы, свободные от его собственных телесных и иных потребностей, пристрастий.
Конечно, от таких систем неразумно требовать, чтобы они самостоятельно распознавали образы, классифицировали их по признакам, по которым это делает человек. Им цели необходимо задавать в явной форме.
Вместе с тем следует отметить, что технические системы могут иметь аналог телесной
организации. Развитая кибернетическая система обладает рецепторными и эффекторными
придатками. Начало развитию таких систем положили интегральные промышленные роботы,
в которых ЭВМ в основном выполняет функцию памяти. В роботах третьего поколения ЭВМ
выполняет и "интеллектуальные" функции. Их взаимодействие с миром призвано совершенствовать их "интеллект". Такого рода роботы имеют "телесную организацию", конструкция
их рецепторов и эффекторов содержит определенные ограничения, сокращающие пространство, в котором, абстрактно говоря, могла бы совершать поиск цифровая машина.
Тем не менее совершенствование систем искусственного интеллекта на базе цифровых
машин может иметь границы, из-за которых переход к решению интеллектуальных задач более высокого порядка, требующих учета глобального характера переработки информации и
ряда других гносеологических характеристик мышления, невозможен на дискретных машинах при сколь угодно совершенной программе. Это значит, что техническая (а не только
биологическая) эволюция отражающих систем оказывается связанной с изменением материального субстрата и конструкции этих систем. Такая эволюция, т.е. аппаратурное усовершенствование систем искусственного интеллекта, например, через более интенсивное использование аналоговых компонентов, гибридных систем, голографии и ряда других идей,
будет иметь место. При этом не исключается использование физических процессов, протекающих в мозгу, и таких, которые психика в качестве своих механизмов не использует. Наряду с этим еще далеко не исчерпаны возможности совершенствования систем искусственного интеллекта путем использования в функционировании цифровых машин гносеологических характеристик мышления, о которых речь шла выше.
Контрольные вопросы к разделу 2.2
1. Какой смысл вкладывается в настоящее время в понятие "искусственный интеллект"?
2. Какие задачи, решаемые техническими системами, можно рассматривать как прояв-
ление искусственного интеллекта?
3. Расскажите об определении задачи в контексте деятельности человека и машин.
4. Какие черты характерны для интеллекта?
5. Расскажите о критерии Тьюринга.
6. С какими проблемами сталкивается теория искусственного интеллекта?
7. По какому пути идет развитие систем искусственного интеллекта?
8. Расскажите и приведите пример аналогии между техническими системами и телесной
организацией
|