Реферат: Гносеологические проблемы искусственного интеллекта Реферат: Гносеологические проблемы искусственного интеллекта
Реферат: Гносеологические проблемы искусственного интеллекта РЕФЕРАТЫ РЕКОМЕНДУЕМ  
 
Тема
 • Главная
 • Авиация
 • Астрономия
 • Безопасность жизнедеятельности
 • Биографии
 • Бухгалтерия и аудит
 • География
 • Геология
 • Животные
 • Иностранный язык
 • Искусство
 • История
 • Кулинария
 • Культурология
 • Лингвистика
 • Литература
 • Логистика
 • Математика
 • Машиностроение
 • Медицина
 • Менеджмент
 • Металлургия
 • Музыка
 • Педагогика
 • Политология
 • Право
 • Программирование
 • Психология
 • Реклама
 • Социология
 • Страноведение
 • Транспорт
 • Физика
 • Философия
 • Химия
 • Ценные бумаги
 • Экономика
 • Естествознание




Реферат: Гносеологические проблемы искусственного интеллекта

Введение

Проблема искусственного интеллекта является сейчас одной из самых
злободневных. Ей занимаются ученые различных специальностей:
кибернетики, лингвисты, психологи, философы, математики, инженеры. При
исследовании проблем, связанных с искусственным интеллектом, решаются
многие основополагающие вопросы, связанные с путями развития научной
мысли, с воздействием достижений в области вычислительной техники и
робототехники на жизнь будущих поколений людей. Здесь возникают и
развиваются новые методы научных междисциплинарных исследований. Здесь
формируется новый взгляд на роль тех или иных научных результатов и
возникает то, что можно назвать философским осмыслением этих
результатов.

По современным научным данным человеческий мозг содержит огромное число
"вычислительных" узлов – нейронов. Новейшие вычислительные системы
стремительно приближаются по своим вычислительным возможностям к мозгу,
хотя ещё и далеки от совершенства. Искусственные нейронные сети
контролируют сложнейшие системы управления и слежения, проявляют
способности в области распознавания изображения вплоть до возможности
создания интеллектуальных автопилотов. Активно занимается системами
искусственного интеллекта область, издавна считавшаяся прерогативой
человека - компьютеры стали довольно неплохо играть в шахматы. В таких
условиях приобретает особую значимость рассмотрение основных философских
вопросов, связанных с искусственным интеллектом и искусственной жизнью.
При этом, очевидно, возможно взаимовлияние искусственного интеллекта и
искусственной жизни на философские проблемы мышления и на жизнь вообще.

Понятие искусственного интеллекта многогранно. Но несколько наиболее
важных аспектов все же можно выделить. Во-первых, это вопрос о том, что
такое искусственный интеллект, ведь определение понятия обусловливает
предмет, цель, методы, успешность исследования. Во-вторых, интеллект
подразумевает обработку информации, поэтому важной является проблема
представления знаний в системах искусственного интеллекта. В-третьих,
существовали и существуют различные подходы к решению вопросов,
связанных с созданием интеллектуальных систем, и их рассмотрение
проливает свет на многие аспекты проблемы. В-четвертых, огромное
значение имеет обеспечение взаимодействия систем искусственного
интеллекта с человеком на естественном языке, так как при этом
значительно облегчается ведение диалога с ними.

Несмотря на то, что, по мнению некоторых ученых, искусственный интеллект
принципиально невозможен, разработки в области создания систем
искусственного интеллекта являются в настоящее время одним из
приоритетных направлений в науке.

Конкретизация понятия "искусственный интеллект"

В понятие "искусственный интеллект" вкладывается различный смысл - от
признания интеллекта у ЭВМ, решающих логические или даже любые
вычислительные задачи, до отнесения к интеллектуальным лишь тех систем,
которые решают весь комплекс задач, осуществляемых человеком, или еще
более широкую их совокупность. Постараемся же вычленить тот смысл
понятия "искусственный интеллект", который в наибольшей степени
соответствует реальным исследованиям в этой области.

В исследованиях по искусственному интеллекту ученые отвлекаются от
сходства процессов, происходящих в технической системе или в реализуемых
ею программах, с мышлением человека. Если система решает задачи, которые
человек обычно решает посредством своего интеллекта, то мы имеем дело с
системой искусственного интеллекта.

Однако это ограничение недостаточно. Создание традиционных программ для
ЭВМ- работа программиста - не есть конструирование искусственного
интеллекта. Какие же задачи, решаемые техническими системами, можно
рассматривать как конституирующие искусственный интеллект?

Чтобы ответить на этот вопрос, надо уяснить, прежде всего, что такое
задача. Как отмечают психологи, этот термин тоже не является достаточно
определенным. По-видимому, в качестве исходного можно принять понимание
задачи как мыслительной задачи, существующее в психологии. Они
подчеркивают, что задача есть только тогда, когда есть работа для
мышления, т. е. когда имеется некоторая цель, а средства к ее достижению
не ясны; их надо найти посредством мышления. Хорошо по этому поводу
сказал замечательный математик Д. Пойа: "...трудность решения в какой-то
мере входит в само понятие задачи: там, где нет трудности, нет и
задачи". Если человек имеет очевидное средство, с помощью которого,
наверное, можно осуществить желание, поясняет он, то задачи не
возникает. Если человек обладает алгоритмом решения некоторой задачи и
имеет физическую возможность его реализации, то задачи в собственном
смысле уже не существует.

Так понимаемая задача, в сущности, тождественна проблемной ситуации, и
решается она посредством преобразования последней. В ее решении
участвуют не только условия, которые непосредственно заданы. Человек
использует любую находящуюся в его памяти информацию, "модель мира",
имеющуюся в его психике и включающую фиксацию разнообразных законов,
связей, отношений этого мира.

Если задача не является мыслительной, то она решается на ЭВМ
традиционными методами и, значит, не входит в круг задач искусственного
интеллекта. Ее интеллектуальная часть выполнена человеком. На долю
машины осталась часть работы, которая не требует участия мышления, т. е.
"безмысленная", неинтеллектуальная.

Под словом "машина" здесь понимается машина вместе с ее совокупным
математическим обеспечением, включающим не только программы, но и
необходимые для решения задач "модели мира". Недостатком такого
понимания является главным образом его антропоморфизм. Задачи, решаемые
искусственным интеллектом, целесообразно определить таким образом, чтобы
человек, по крайней мере, в определении отсутствовал. Основная функция
мышления заключается в выработке схем целесообразных внешних действий в
бесконечно варьирующих условиях. Специфика человеческого мышления (в
отличие от рассудочной деятельности животных) состоит в том, что человек
вырабатывает и накапливает знания, храня их в своей памяти. Выработка
схем внешних действий происходит не по принципу "стимул - реакция", а на
основе знаний, получаемых дополнительно из среды, для поведения в
которой вырабатывается схема действия.

Этот способ выработки схем внешних действий (а не просто действия по
командам, пусть даже меняющимся как функции от времени или как
однозначно определенные функции от результатов предшествующих шагов)
является существенной характеристикой любого интеллекта. Отсюда следует,
что к системам искусственного интеллекта относятся те, которые,
используя заложенные в них правила переработки информации, вырабатывают
новые схемы целесообразных действий на основе анализа моделей среды,
хранящихся в их памяти. Способность к перестройке самих этих моделей в
соответствии с вновь поступающей информацией является свидетельством
более высокого уровня искусственного интеллекта.

Большинство исследователей считают наличие собственной внутренней модели
мира у технических систем предпосылкой их "интеллектуальности".
Формирование такой модели связано с преодолением синтаксической
односторонности системы, т.е. с тем, что символы или та их часть,
которой оперирует система, интерпретированы, имеют семантику.

Характеризуя особенности систем искусственного интеллекта, специалисты
указывают на:

1) наличие в них собственной внутренней модели внешнего мира; эта модель
обеспечивает индивидуальность, относительную самостоятельность системы в
оценке ситуации, возможность семантической и прагматической
интерпретации запросов к системе;

2) способность пополнения имеющихся знаний;

3) способность к дедуктивному выводу, т.е. к генерации информации,
которая в явном виде не содержится в системе; это качество позволяет
системе конструировать информационную структуру с новой семантикой и
практической направленностью;

4) умение оперировать в ситуациях, связанных с различными аспектами
нечеткости, включая "понимание" естественного языка;

5) способность к диалоговому взаимодействию с человеком;

6) способность к адаптации.

На вопрос, все ли перечисленные условия обязательны, необходимы для
признания системы интеллектуальной, ученые отвечают по-разному. В
реальных исследованиях, как правило, признается абсолютно необходимым
наличие внутренней модели внешнего мира, и при этом считается
достаточным выполнение хотя бы одного из перечисленных выше условий.

П. Армер выдвинул мысль о "континууме интеллекта": различные системы
могут сопоставляться не только как имеющие и не имеющие интеллекта, но и
по степени его развития. При этом, считает он, желательно разработать
шкалу уровня интеллекта, учитывающую степень развития каждого из его
необходимых признаков. Известно, что в свое время А.Тьюринг предложил в
качестве критерия, определяющего, может ли машина мыслить, "игру в
имитацию". Согласно этому критерию, машина может быть признана мыслящей,
если человек, ведя с ней диалог по достаточно широкому кругу вопросов,
не сможет отличить ее ответов от ответов человека.

Критерий Тьюринга в литературе был подвергнут критике с различных точек
зрения. Действительно серьезный аргумент против этого критерия
заключается в том, что в подходе Тьюринга ставится знак тождества между
способностью мыслить и способностью к решению задач переработки
информации определенною типа. Успешная "игра в имитацию" не может без
тщательного предварительного анализа мышления как целостности быть
признана критерием способности машины к мышлению.

Однако этот аргумент бьет мимо цели, если мы говорим не о мыслящей
машине, а об искусственном интеллекте, который должен лишь продуцировать
физические тела знаков, интерпретируемые человеком в качестве решений
определенных задач. Поэтому прав В.М. Глушков, утверждая, что наиболее
естественно, следуя Тьюрингу, считать, что некоторое устройство,
созданное человеком, представляет собой искусственный интеллект, если,
ведя с ним достаточно долгий диалог по более или менее широкому кругу
вопросов, человек не сможет различить, разговаривает он с разумным живым
существом или с автоматическим устройством. Если учесть возможность
разработки программ, специально рассчитанных на введение в заблуждение
человека, то, возможно, следует говорить не просто о человеке, а о
специально подготовленном эксперте. Этот критерий, на взгляд многих
ученых, не противоречит перечисленным выше особенностям системы
искусственного интеллекта.

Но что значит по "достаточно широкому кругу вопросов", о котором идет
речь в критерии Тьюринга и в высказывании В.М.Глушкова? На начальных
этапах разработки проблемы искусственного интеллекта ряд исследователей,
особенно занимающихся эвристическим программированием, ставили задачу
создания интеллекта, успешно функционирующего в любой сфере
деятельности. Это можно назвать разработкой "общего интеллекта". Сейчас
большинство работ направлено на создание "профессионального
искусственного интеллекта", т. е. систем, решающих интеллектуальные
задачи из относительно ограниченной области (например, управление
портом, интегрирование функций, доказательство теорем геометрии и т.п.).
В этих случаях "достаточно широкий круг вопросов" должен пониматься как
соответствующая область предметов.

Исходным пунктом рассуждений об искусственном интеллекте было
определение такой системы как решающей мыслительные задачи. Но перед нею
ставятся и задачи, которые люди обычно не считают интеллектуальными,
поскольку при их решении человек сознательно не прибегает к перестройке
проблемных ситуаций. К их числу относится, например, задача распознания
зрительных образов. Человек узнает человека, которого видел один-два
раза, непосредственно в процессе чувственного восприятия. Исходя из
этого, кажется, что эта задача не является интеллектуальной. Но в
процессе узнавания человек не решает мыслительных задач лишь постольку,
поскольку программа распознания не находится в сфере осознанного. Но так
как в решении таких задач на неосознанном уровне участвует модель среды,
хранящаяся в памяти, то эти задачи, в сущности, являются
интеллектуальными. Соответственно и система, которая ее решает, может
считаться интеллектуальной. Тем более это относится к "пониманию"
машиной фраз на естественном языке, хотя человек в этом не усматривает
обычно проблемной ситуации.

Теория искусственного интеллекта при решении многих задач сталкивается с
гносеологическими проблемами.

Одна из таких проблем состоит в выяснении вопроса, доказуема ли
теоретически (математически) возможность или невозможность
искусственного интеллекта. На этот счет существуют две точки зрения.
Одни считают математически доказанным, что ЭВМ в принципе может
выполнить любую функцию, осуществляемую естественным интеллектом. Другие
полагают в такой же мере доказанным математически, что есть проблемы,
решаемые человеческим интеллектом, которые принципиально недоступны ЭВМ.
Эти взгляды высказываются как кибернетиками, так и философами.

Знание – основа интеллектуальной системы

Многие виды умственной деятельности человека, такие, как написание
программ для вычислительной машины, занятие математикой, ведение
рассуждений на уровне здравого смысла и даже вождение автомобиля –
требуют "интеллекта". На протяжении последних десятилетий было построено
несколько типов компьютерных систем, способных выполнять подобные
задачи.

Имеются системы, способные диагностировать заболевания, планировать
синтез сложных синтетических соединений, решать дифференциальные
уравнения в символьном виде, анализировать электронные схемы, понимать
ограниченный объем человеческой речи и естественного языкового текста.
Можно сказать, что такие системы обладают в, некоторой степени,
искусственным интеллектом.

Работа по построению таких систем проводится в области, получившей
название искусственный интеллект (ИИ).

При реализации интеллектуальных функций непременно присутствует
информация, называемая знаниями. Другими словами, интеллектуальные
системы являются в то же время системами обработки знаний.

В настоящее время в исследованиях по искусственному интеллекту
выделились несколько основных направлений.

1. Представление знаний. В рамках этого направления решаются задачи,
связанные с формализацией и представлением знаний в памяти системы ИИ.
Для этого разрабатываются специальные модели представления знаний и
языки описания знаний, внедряются различные типы знаний. Проблема
представления знаний является одной из основных проблем для системы ИИ,
так как функционирование такой системы опирается на знания о проблемной
области, которые хранятся в ее памяти.

2. Манипулирование знаниями. Чтобы знаниями можно было пользоваться при
решении задачи, следует научить систему ИИ оперировать ими. В рамках
данного направления разрабатываются способы пополнения знаний на основе
их неполных описаний, создаются методы достоверного и правдоподобного
вывода на основе имеющихся знаний, предлагаются модели рассуждений,
опирающихся на знания и имитирующих особенности человеческих
рассуждений. Манипулирование знаниями очень тесно связано с
представлением знаний, и разделить эти два направления можно лишь
условно.

3. Общение. В круг задач этого направления входят: проблема понимания и
синтеза связных текстов на естественном языке, понимание и синтез речи,
теория моделей коммуникаций между человеком и системой ИИ. На основе
исследований в этом направлении формируются методы построения
лингвистических процессов, вопросно-ответных систем, диалоговых систем и
других систем ИИ, целью которых является обеспечение комфортных условий
для общения человека с системой ИИ.

4. Восприятие. Это направление включает разработку методов представления
информации о зрительных образах в базе знаний, создание методов перехода
от зрительных сцен к их текстовому описанию и методов обратного
перехода, создание средств, порождающих зрительные сцены на основе
внутренних представлений в системах ИИ.

5. Обучение. Для развития способности систем ИИ к обучению, т.е. к
решению задач, с которыми они раньше не встречались, разрабатываются
методы формирования условий задач по описанию проблемной ситуации или по
наблюдению за ней, методы перехода от известного решения частных задач
(примеров) к решению общей задачи, создание приемов разбиения исходной
задачи на более мелкие и уже известные для систем ИИ. В этом направлении
ИИ сделано еще весьма мало.

6. Поведение. Поскольку системы ИИ должны действовать в некоторой
окружающей среде, то необходимо разрабатывать некоторые поведенческие
процедуры, которые позволили бы им адекватно взаимодействовать с
окружающей средой, другими системами ИИ и людьми. Это направление в ИИ
также разработано ещё очень слабо.

В последние годы термин "знание" все чаще употребляется в информатике.
Специалисты подчеркивают, что совершенствование так называемых
интеллектуальных систем (информационно-поисковых систем высокого уровня,
диалоговых систем, базирующихся на естественных языках, интерактивных
человеко-машинных систем, используемых в управлении, проектировании,
научных исследованиях) во многом определяется тем, насколько успешно
будут решаться задачи (проблемы) представления знаний.

Аспекты представления знаний

Неудивительно, что перед теми, кто занимается проблемой представления
знаний, встает вопрос о том, что такое знание, какова его природа и
основные характеристики. В связи с этим предпринимаются, например,
попытки дать такое определение знания, из которого можно было бы
исходить в решении задач представления знаний в компьютерных системах.

Представлению данных присущ пассивный аспект: книга, таблица,
заполненная информацией память. В теории искусственного интеллекта особо
подчеркивается активный аспект представления знаний: приобретение знания
должно стать активной операцией, позволяющей не только запоминать, но и
применять воспринятые (приобретенные, усвоенные) знания для рассуждений
на их основе.

Использование символического языка, такого, как язык математической
логики, позволяет формулировать описания в форме, одновременно близкой и
к обычному языку, и к языку программирования. Впрочем, математическая
логика позволяет рассуждать, базируясь на приобретенных знаниях:
логические выводы действительно являются активными операциями получения
новых знаний из уже усвоенных.

Принципиальная мировоззренческая установка состоит в рассмотрении ЭВМ
как предмета-посредника в познавательной человеческой деятельности.
Компьютерная система, подобно другим предметам-посредникам (орудиям
труда и предметам быта, инструментам, приборам, знаково-символическим
системам, научным текстам и т. д.), играя инструментальную роль в
познании, является средством объективизации накопленного знания,
воплощением определенного социально-исторического опыта практической и
познавательной деятельности.

Проблема представления знаний возникла как одна из проблем
искусственного интеллекта. Она связана с переходом исследований в этой
области в некоторую новую фазу. Речь идет о создании практически
полезных систем (прежде всего так называемых экспертных систем),
применяемых в медицине, геологии, химии. Создание такого рода систем
требует интенсивных усилий по формализации знания, накопленного в
соответствующей науке.

С термином "представление знаний" связывается определенный этап в
развитии математического обеспечения ЭВМ. Если на первом этапе
доминировали программы, а данные играли вспомогательную роль
своеобразной "пищи" для "голодных" программ, то на последующих этапах
роль данных неуклонно возрастала. Их структура усложнялась: от машинного
слова, размещенного в одной ячейке памяти ЭВМ, происходил переход к
векторам, массивам, файлам, спискам. Венцом этого развития стали
абстрактные типы данных, обеспечивающие возможность создания такой
структуры данных, которая наиболее удобна при решении задачи.
Последовательное развитие структур данных привело к их качественному
изменению и к переходу от представления данных к представлению знаний.
Уровень представления знаний отличается от уровня представления данных
не только более сложной структурой, но и существенными особенностями:
интерпретируемость, наличие классифицируемых связей (например, связь
между знаниями, относящихся к элементу множества, и знаниями об этом
множестве), которые позволяют хранить информацию, одинаковую для всех
элементов множества, записанную одноактно при описании самого множества,
наличие ситуативных отношений (одновременности, нахождения в одной точке
пространства и т. п., эти отношения определяют ситуативную совместимость
тех или иных знаний, хранимых в памяти). Кроме того, для уровня знаний
характерны такие признаки, как наличие специальных процедур обобщения,
пополнения имеющихся в системе знаний и ряда других процедур.

Моделирование на ЭВМ понималось как техническая реализация определенной
формы знакового моделирования. Однако, рассматривая ЭВМ в
гносеологическом плане в качестве посредника в познании, имеет смысл не
фиксировать внимание, прежде всего на "железной части" (hardware)
компьютера, а рассматривать всю компьютерную систему как сложную систему
взаимосвязанных и до некоторых пределов самостоятельных моделей - как
материальных, так и знаковых, т. е. идеальных. Такой подход не только
соответствует рассмотрению компьютерных систем в современной
информатике, но является и гносеологически оправданным. Многие важные
философские аспекты проблем, возникающих в связи с компьютеризацией
различных сфер человеческой деятельности, требуют для своего
исследования обращения, прежде всего, к знаковым составляющим
компьютерных систем. Это верно и в отношении философских аспектов
проблем представления знаний.

В последние годы все чаще стал употребляться термин "компьютерное
моделирование". Очевидно, имеет смысл обозначать им построение любого из
составляющих компьютерной системы - будь то знаковая модель или
материальная.

Что изменяется в компьютерном моделировании с переходом от уровня
представления данных к уровню представлению знаний? Каков
гносеологический смысл этих изменений?

С введением термина "знание" появляется свойство "осознавать", т. е.
"понимать" свои интеллектуальные возможности. В свою очередь, это
означает не что иное, как рефлексию.

Рефлексия как одна из составляющих интеллектуальной деятельности

Исследования в области искусственного интеллекта возникли под влиянием
идей кибернетики - прежде всего идеи общности процессов управления и
передачи информации в живых организмах, обществе и технике, в частности,
в компьютерах.

Философская приемлемость проблематики искусственного интеллекта в ее
традиционном виде была обусловлена лежащим в ее основе представлением о
том, что "порядок и связь идей те же, что порядок и связь вещей". Тем
самым создать в компьютере структуру, воспроизводящую "мир идей",
означало попросту создать структуру, изоморфную структуре вещественного
мира, т. е. построить "электронную модель мира". Эта модель
интерпретировалась как компьютерная модель человеческих знаний о мире.
Процесс человеческого мышления интерпретировался в компьютере как
машинный поиск таких трансформаций модели, которые должны были перевести
компьютерную модель в некое финальное состояние (например, матовую
позицию в шахматах).

Для этого система искусственного интеллекта нуждалась в знаниях о том,
как осуществлять трансформации состояний модели, приводящие к заранее
заданной цели - состоянию с определенными свойствами. В первое время
было распространено убеждение в принципиальной способности компьютера к
самостоятельному исследованию хранящейся в нем модели, т. е. к
самообучению стратегии достижения поставленной цели.

Данная гипотетическая способность интерпретировалась как возможность
машинного творчества, как основа создания будущих "мыслящих машин". И,
хотя в реально разрабатывавшихся системах достижение цели осуществлялось
на основе человеческого опыта с помощью алгоритмов, основанных на
теоретическом анализе создаваемых моделей и результатов проводимых на
них экспериментов, идеи построения самообучаемых систем многим казались
наиболее перспективными. Лишь к 80-му году была осознана значимость
проблемы использования в интеллектуальных системах человеческих знаний о
действительности, повлекшая серьезную разработку баз знаний и методов
извлечения личных знаний экспертов.

С развитием данного направления возникла идея рефлексивного управления.
До этого момента в кибернетике управление рассматривалось как передача
объекту сигналов, непосредственно воздействующих на его поведение, а
эффективность управления достигалась с помощью обратной связи -
получения информации о реакциях управляемого объекта. Рефлексивное же
управление - есть передача информации, воздействующей на имеющийся у
объекта образ мира. Тем самым обратная связь оказывается излишней -
состояние субъекта известно передающему информацию, то есть объекту.

Традиционные системы искусственного интеллекта основаны на идеологии
целеориентированного поведения типа шахматной игры, где цель обоих
партнеров состоит в том, чтобы поставить мат ценой любых жертв. Не
случайно именно шахматные программы оказались столь важными для
отработки методов искусственного интеллекта.

Неотъемлемость рефлексии

Стоит ли считать рефлексию неотъемлемой частью систем искусственного
интеллекта?

Ответом с технической точки зрения может служить следующее. Как и любая
компьютерная программа, наделенная средствами самодиагностики и
самоисправления (а такие средства уже становятся стандартом), т. е.
средствами повышения надежности, системы искусственного интеллекта
должны контролировать происходящие процессы - как внешние, так и
внутренние. Однако может показаться, что в этом смысле будет достаточным
просто развитая структура обратных связей. Сразу надо оговориться, что
под обратной связью следует понимать только ответную реакцию (или
получение информации о ней) после какого-то конкретного действия
системы. Обратная связь лишь предоставляет данные, информацию, но ни в
коей мере не интерпретирует их. Норбертом Винером в книге "Кибернетика,
или управление и связь в животном и машине" были приведены примеры
нарушений нервной системы людей и их последствия. Так люди с нарушением
системы ориентации собственных конечностей в пространстве (не
чувствующие своих рук и ног, случай, когда конечности "немеют") должны
были визуально контролировать свои действия. Это было типичное нарушение
обратной связи. Рефлексия же подразумевает анализ полученной картины.

Анализ функционирования собственной модели или модели "всей окружающей
действительности" (в рамках поставленной задачи), контроль над ее
состоянием, прогнозирование состояния - есть ни что иное, как реализация
рефлексии. Рефлексия - есть некий метауровень. С применением языков
программирования высокого уровня, таких как Пролог, позволяющий
формулировать цели и строить логические выводы достижимости этих целей,
задача реализации рефлексии уже может быть частично решена. С их помощью
можно построить некую метаструктуру, надстройку, некий метауровень,
позволяющий оценивать поведение предыдущего. Однако, при рассмотрении
термина "глубокая рефлексия" или "многоуровневая рефлексия" встает
проблема построения моделей самой системой. Здесь на помощь приходят
абстрактные типы данных. Они позволяют оперировать структурами данных
любой конечной сложности. Таким образом, можно считать, что системы
искусственного интеллекта могут содержать модель рефлексии.

Таким образом, считать интеллектуальную систему полноценной без умения
оценивать, "понимать" свои действия, то есть рефлексировать, нельзя.
Более того, рефлексию следует считать одним из главных инструментов
построения поведения систем. Говоря языком математики, рефлексия
является необходимым условием существования интеллектуальной системы.

Некоторые подходы к решению проблемы ИИ.

Механистический подход.

Идея создания мыслящих машин "человеческого типа", которые думают,
двигаются, слышат, говорят, и вообще ведут себя как живые люди уходит
корнями в глубокое прошлое. Еще в античности люди стремились создать
машину, подобную себе.

В 1736 г. французский изобретатель Жак де Вокансон изготовил
механического флейтиста в человеческий рост, который исполнял двенадцать
мелодий, перебирая пальцами отверстия и дуя в мундштук, как настоящий
музыкант. В середине 1750-х годов Фридрих фон Кнаус, австрийский автор,
служивший при дворе Франциска I, сконструировал серию машин, которые
умели держать перо и могли писать довольно длинные тексты. Другой
мастер, Пьер Жак-Дроз из Швейцарии, построил пару изумительных по
сложности механических кукол размером с ребенка: мальчика, пишущего
письма и девушку, играющую на клавесине. Успехи механики XIX в.
стимулировали еще более честолюбивые замыслы. Так, в 1830-х годах
английский математик Чарльз Бэббидж задумал, правда, так и не завершив,
сложный цифровой калькулятор, который он назвал Аналитической машиной;
как утверждал Бэббидж, его машина в принципе могла бы рассчитывать
шахматные ходы. Позднее, в 1914 г., директор одного из испанских
технических институтов Леонардо Торрес-и-Кеведо действительно изготовил
электромеханическое устройство, способное разыгрывать простейшие
шахматные эндшпили почти также хорошо, как и человек.

Но все эти механические устройства имеют лишь отдаленное сходство с тем,
что может быть названо ИИ, хотя интересны с исторической точки зрения.

Электронный подход

После второй мировой войны появились устройства, казалось бы, подходящие
для достижения заветной цели – моделирования разумного поведения; это
были электронные цифровые вычислительные машины.

К концу 50-х годов все эти увлечения выделились в новую более или менее
самостоятельную ветвь информатики, получившую название "искусственный
интеллект". Исследования в области ИИ, первоначально сосредоточенные в
нескольких университетских центрах США – Массачусетском технологическом
институте, Технологическом институте Карнеги в Питтсбурге, Станфордском
университете, - ныне ведутся во многих других университетах и
корпорациях США и других стран. Исследователей ИИ, работающих над
созданием мыслящих машин, можно разделить на две группы. Одних
интересует чистая наука и для них компьютер - лишь инструмент,
обеспечивающий возможность экспериментальной проверки теорий процессов
мышления. Интересы другой группы лежат в области техники: они стремятся
расширить сферу применения компьютеров и облегчить пользование ими.
Многие представители второй группы мало заботятся о выяснении механизма
мышления - они полагают, что для их работы это едва ли более полезно,
чем изучение полета птиц и самолетостроения.

На протяжении всей своей короткой истории исследователи в области ИИ
всегда находились на переднем крае информатики. Многие ныне обычные
разработки, в том числе усовершенствованные системы программирования,
текстовые редакторы и программы распознавания образов, в значительной
мере рассматриваются на работах по ИИ. Короче говоря, теории, новые
идеи, и разработки ИИ неизменно привлекают внимание тех, кто стремится
расширить области применения и возможности компьютеров, сделать их более
"дружелюбными" то есть более похожими на разумных помощников и активных
советчиков, чем те педантичные и туповатые электронные рабы, какими они
всегда были. Несмотря на многообещающие перспективы, ни одну из
разработанных до сих пор программ ИИ нельзя назвать "разумной" в обычном
понимании этого слова. Это объясняется тем, что все они узко
специализированы; самые сложные экспертные системы по своим возможностям
скорее напоминают дрессированных или механических кукол, нежели человека
с его гибким умом и широким кругозором. Даже среди исследователей ИИ
теперь многие сомневаются, что большинство подобных изделий принесет
существенную пользу. Немало критиков ИИ считают, что такого рода
ограничения вообще непреодолимы, и решение проблемы ИИ надо искать не в
сфере непосредственно электроники, а где-то за ее пределами.

Кибернетический подход

Попытки построить машины, способные к разумному поведению, в
значительной мере вдохновлены идеями профессора Массачусетского
технологического института, Норберта Винера, одной из выдающихся
личностей в интеллектуальной истории Америки и всего мира. Помимо
математики он обладал широкими познаниями в других областях, включая
нейропсихологию, медицину, физику и электронику. Винер был убежден, что
наиболее перспективны научные исследования в так называемых пограничных
областях, которые нельзя конкретно отнести к той или иной конкретной
дисциплины. Они лежат где-то на стыке наук, поэтому к ним обычно не
подходят столь строго. "Если затруднения в решении какой-либо проблемы
психологии имеют математический характер, пояснял он, - то десять
несведущих в математике психологов продвинуться не дальше одного столь
же несведущего". Таким образом, междисциплинарность - краеугольный
камень современной науки. Винеру и его сотруднику Джулиану Бигелоу
принадлежит разработка принципа "обратной связи", который был успешно
применен при разработке нового оружия с радиолокационным наведением.
Принцип обратной связи заключается в использовании информации,
поступающей из окружающего мира, для изменения поведения машины. В
основу разработанных Винером и Бигелоу систем наведения были положены
тонкие математические методы; при малейшем изменении отраженных от
самолета радиолокационных сигналов они соответственно изменяли наводку
орудий, то есть - заметив попытку отклонения самолета от курса, они
тотчас рассчитывали его дальнейший путь и направляли орудия так, чтобы
траектории снарядов и самолетов пересеклись. В дальнейшем Винер
разработал на принципе обратной связи теории как машинного, так и
человеческого разума. Он доказывал, что именно благодаря обратной связи
все живое приспосабливается к окружающей среде и добивается своих целей.
"Все машины, претендующие на разумность", - писал он, - "должны обладать
способностью преследовать определенные цели и приспосабливаться, т.е.
обучаться". В 1948 году выходит книга Винера, в которой он заложил
фундамент новой науки, названной им кибернетикой, что в переводе с
греческого означает рулевой. Следует отметить, что принцип "обратной
связи", введенный Винером, был в какой-то степени предугадан Сеченовым в
описанном им в книге "Рефлексы головного мозга" (1863 г.) феномене
"центрального торможения", т. е. почти за 100 лет до Винера, и
рассматривался как механизм регуляции деятельности нервной системы, и
который лег в основу многих моделей произвольного поведения в
отечественной психологии.

Таким образом, кибернетика возникла на стыке многих областей знания:
математики, логики, семиотики, биологии, социологии.

Обобщающий характер кибернетических идей и методов сближает науку об
управлении, каковой является кибернетика, с философией.

Задача обоснования исходных понятий кибернетики, особенно таких, как
информация, управление, обратная связь и др. требуют выхода в более
широкую, философскую область знаний, где рассматриваются самые общие
закономерности познания.

Сама кибернетика как наука об управлении многое дает современному
философскому мышлению. Она позволяет более глубоко раскрыть механизм
самоорганизации материи, обогащает содержание категории связей,
причинности, позволяет более детально изучить диалектику необходимости и
случайности, возможности и действительности. Открываются пути для
разработки "кибернетической" гносеологии, которая позволяет уточнить,
детализировать и углубить в свете науки об управлении ряд
существенно-важных проблем.

Возникнув в результате развития и взаимного стимулирования ряда в
недалеком прошлом слабо связанных между собой дисциплин технического,
биологического и социального профиля, кибернетика проникла во многие
сферы жизни.

Столь необычная "биография" кибернетики объясняется целым рядом причин,
среди которых надо выделить две.

Во-первых, кибернетика имеет необычайный, синтетический характер. В
связи с этим до сих пор существуют различия в трактовке некоторых ее
проблем и понятий.

Во-вторых, основополагающие идеи кибернетики пришли в нашу страну с
Запада, где они с самого начала оказались под влиянием идеализма и
метафизики, а иногда и идеологии. То же самое, или почти то же самое
происходило и у нас. Таким образом, становится очевидной необходимость
разработки философских основ кибернетики, освещение основных её
положений с позиций философского познания.

Осмысление кибернетических понятий с позиции философии будет
способствовать более успешному осуществлению теоретических и
практических работ в этой области, создаст лучшие условия для
эффективной работы и научного поиска в этой области познания.

Кибернетика как перспективная область научного познания привлекает к
себе все большее внимание философов. Положения и выводы кибернетики
включаются в их области знания, которые в значительной степени
определяют развитие современной теории познания. Как справедливо
отмечают отечественные исследователи, кибернетика, достижения которой
имеет громадное значение для исследования познавательного процесса, по
своей сущности и содержанию должна входить в теорию познания.

Исследование методологического и гносеологического аспектов кибернетики
способствует решению многих философских проблем. В их числе - проблемы
диалектического понимания простого и сложного, количества и качества,
необходимости и случайности, возможности и действительности, прерывности
и непрерывности, части и целого. Для развития самих математики и
кибернетики большое значение имеет применение к материалу этих наук ряда
фундаментальных философских принципов и понятий, применение, обязательно
учитывающее специфику соответствующих областей научного знания.

Философская мысль уже много сделала в анализе аспектов и
теоретико-познавательной роли кибернетики. Было показано, сколь
многообещающим в философском плане является рассмотрение в свете
кибернетики таких вопросов и понятий, как природа информации, цель и
целенаправленность, соотношение детерминизма и теологии, соотношение
дискретного и непрерывного, детерминистского и вероятностного подхода к
науке.

Нужно сказать и о большом значении кибернетики для построения научной
картины мира, ведь предмет кибернетики - процессы, протекающие в
системах управления, общие закономерности таких процессов.

Кибернетика и сознание

Явления, которые отображаются в таких фундаментальных понятиях
кибернетики, как информация и управление, имеют место в органической
природе и общественной жизни. Таким образом, кибернетику можно
определить как науку об управлении и связи в живой природе, в обществе и
технике. Это определение принадлежит основателю кибернетики – Норберту
Винеру, хотя в первом издании его книги "Кибернетика или управление и
связь в животном и машине" в определении кибернетики отсутствует
общество, включенное позже.

Один из важнейших вопросов, вокруг которого идут философские дискуссии -
это вопрос о том, что такое информация, какова ее природа? Для
характеристики природы информационных процессов необходимо кратко
рассмотреть естественную основу всякой информации, а таковой
естественной основой информации является присущее материи объективное
свойство отражения.

Положение о неразрывной связи информации и отражения стало одним из
важнейших в изучении информации и информационных процессов и признается
абсолютным большинством отечественных и зарубежных философов.

Информация в живой природе в, отличие от неживой, играет активную роль,
так как участвует в управлении всеми жизненными процессами.

Материалистическая теория отражения видит решение новых проблем науки и,
в частности, такой кардинальной проблемы естествознания как переход от
неорганической материи к органической, в использовании методологической
основы диалектического материализма. Проблема заключается в том, что
существует материя, способная ощущать, и материя, созданная из тех же
атомов и, в тоже время, не обладающая этой способностью. Вопрос, таким
образом, поставлен вполне конкретно и, тем самым, толкает проблему к
решению. Кибернетика вплотную занялась исследованием механизмов
саморегуляции и самоуправления. Вместе с тем, оставаясь методически
ограниченными, эти достижения оставили открытыми ряд проблем, к
рассмотрению которых привела внутренняя ломка кибернетики.

Сознание является не столько продуктом развития природы, сколько
продуктом общественной жизни человека, общественного труда предыдущих
поколений людей. Оно является существенной частью деятельности человека,
посредством которой создается человеческая природа и не может быть
принята вне этой природы.

Если в машинах и вообще в неорганической природе отражение есть
пассивный, мертвый физико-химический, механический акт без обобщения и
проникновения в сущность обобщаемого явления, то отражение в форме
сознания есть, то мнению Ф.Энгельса "познание высокоорганизованной
материей самой себя, проникновение в сущность, закон развития природы,
предметов и явлений объективного мира".

В машине же отражение не осознанно, так как оно осуществляется без
образования идеальных образов и понятий, а происходит в виде
электрических импульсов, сигналов и т.п. Поскольку машина не мыслит, эта
не есть та форма отражения, которая имеет место в процессе познания
человеком окружающего мира. Закономерности процесса отражения в машине
определяются, прежде всего, закономерностями отражения действительности
в сознании человека, так как машину создает человек в целях более
точного отражения действительности, и не машина сама по себе отражает
действительность, а человек отражает ее с помощью машины. Поэтому
отражение действительности машиной является составным элементом
отражения действительности человеком. Появление кибернетических
устройств приводит к возникновению не новой формы отражения, а нового
звена, опосредующего отражение природы человеком.

Нейронный подход

На некотором этапе развития информатики многие ученые стали понимать,
что создателям вычислительных машин есть чему поучиться у биологии.
Среди них был нейрофизиолог и поэт-любитель Уоррен Маккалок, обладавший,
как и Винер, философским складом ума и широким кругом интересов. В 1942
г. Маккалок, участвуя в научной конференции в Нью-Йорке, услышал доклад
одного из сотрудников Винера о механизмах обратной связи в биологии.
Высказанные в докладе идеи перекликались с собственными идеями Маккалока
относительно работы головного мозга. В течение следующего года Маккалок
в соавторстве со своим 18-летним протеже, блестящим математиком Уолтером
Питтсом, разработал теорию деятельности головного мозга. Эта теория и
являлась той основой, на которой сформировалось широко распространенное
мнение, что функции компьютера и мозга в значительной мере сходны.
Исходя отчасти из предшествующих исследований нейронов (основных
активных клеток, составляющих нервную систему животных и человека в
частности), проведенных Маккаллоком, они с Питтсом выдвинули гипотезу,
что нейроны можно упрощенно рассматривать как устройства, оперирующие
двоичными числами. Двоичные числа, состоящие из цифр единица и нуль, -
рабочий инструмент одной из систем математической логики. Английский
математик XIXв. Джордж Буль, предложивший эту остроумную и мощнейшую
систему, показал, что логические утверждения можно закодировать в виде
единиц и нулей, где единица соответствует истинному высказыванию, а нуль
- ложному, после чего этим можно оперировать как обычными числами. В
30-е годы XX в. пионеры информатики, в особенности американский ученый
Клод Шеннон, поняли, что двоичные единица и нуль вполне соответствуют
двум состояниям электрической цепи (включено-выключено), поэтому
двоичная система идеально подходит для электронно-вычислительных
устройств. Маккалок и Питтс предложили конструкцию сети из электронных
"нейронов" и показали, что подобная сеть может выполнять практически
любые вообразимые числовые или логические операции. Далее они
предположили, что такая сеть в состоянии также обучаться, распознавать
образы, обобщать, т.е. она обладает всеми чертами интеллекта. Теории
Маккаллока-Питтса в сочетании с книгами Винера вызвали огромный интерес
к разумным машинам. В 40-60-е годы все больше кибернетиков из
университетов и частных фирм запирались в лабораториях и мастерских,
напряженно работая над теорией функционирования мозга и методично
припаивая электронные компоненты моделей нейронов. Из этого
кибернетического, или нейромодельного, подхода к машинному разуму скоро
сформировался так называемый "восходящий метод" - движение от простых
аналогов нервной системы примитивных существ, обладающих малым числом
нейронов, к сложнейшей нервной системе человека и даже выше. Конечная
цель виделась в создании "адаптивной сети", "самоорганизующейся системы"
или "обучающейся машины" - все эти названия разные исследователи
использовали для обозначения устройств, способных следить за окружающей
обстановкой и с помощью обратной связи изменять свое поведение в полном
соответствии с господствовавшей в те времена бихевиористской школой
психологии, т.е. вести себя так же как живые организмы. Однако отнюдь не
во всех случаях возможна аналогия с живыми организмами. Но дело здесь не
только во времени. Основной трудностью, с которой столкнулся "восходящий
метод" на заре своего существования, была высокая стоимость электронных
элементов. Слишком дорогой оказывалась даже модель нервной системы
муравья, состоящая из 20 тыс. нейронов, не говоря уже о нервной системе
человека, включающей около 100 млрд. нейронов. Даже самые совершенные
кибернетические модели содержали лишь несколько сотен нейронов. Столь
ограниченные возможности обескуражили многих исследователей того
периода.

В настоящее время нейронный подход является, по мнению ряда ученых,
наиболее продуктивным, так как при этом создается структура, изоморфная
человеческому мозгу, что, соответственно повышает вероятность появления
систем искусственного интеллекта уже в ближайшем будущем. Элементная
база и принципы функционирования современных компьютеров практически
исчерпали себя, и компьютерная индустрия стоит на пороге коренной ломки,
которая может пойти по пути использования моделей нейронов, что может
существенно упростить работу с компьютером и повысить его вычислительную
мощность.

Появление перцептрона

После нескольких лет эйфории кибернетика столкнулась с целым рядом
трудностей. Одним из тех, кого они ничуть не испугали, был Фрэнк
Розенблат, труды которого, казалось, отвечали основным устремлениям
кибернетиков. В середине 1958 г. им была предложена модель электронного
устройства, названного им перцептроном, которое должно было бы
имитировать процессы человеческого мышления. Перцептрон должен был
передавать сигналы от "глаза", составленного из фотоэлементов, в блоки
электромеханических ячеек памяти, которые оценивали относительную
величину электрических сигналов. Эти ячейки соединялись между собой
случайным образом в соответствии с господствующей тогда теорией,
согласно которой мозг воспринимает новую информацию и реагирует на нее
через систему случайных связей между нейронами. Два года спустя была
продемонстрирована первая действующая машина "Марк-1", которая могла
научиться распознавать некоторые из букв, написанных на карточках,
которые подносили к его "глазам", напоминающие кинокамеры. Перцептрон
Розенблата оказался наивысшим достижением "восходящего", или
нейромодельного метода создания искусственного интеллекта. Чтобы научить
перцептрон способности строить догадки на основе исходных предпосылок, в
нем предусматривалась некая элементарная разновидность автономной работы
или "самопрограммирования". При распознании той или иной буквы одни ее
элементы или группы элементов оказываются гораздо более существенными,
чем другие. Перцептрон мог научаться выделять такие характерные
особенности буквы полуавтоматически, своего рода методом проб и ошибок,
напоминающим процесс обучения. Однако возможности перцептрона были
ограниченными: машина не могла надежно распознавать частично закрытые
буквы, а также буквы иного размера или рисунка, нежели те, которые
использовались на этапе ее обучения.

Ведущие представители так называемого "нисходящего метода"
специализировались, в отличие от представителей "восходящего метода", в
составлении для цифровых компьютеров общего назначения программ решения
задач, требующих от людей значительного интеллекта, например для игры в
шахматы или поиска математических доказательств. К числу защитников
"нисходящего метода" относились Марвин Минский и Сеймур Пейперт,
профессора Массачусетского технологического института, того самого,
профессором которого был и Винер. Минский начал свою карьеру
исследователя искусственного интеллекта сторонником "восходящего метода"
и в 1951 г. построил обучающуюся сеть на вакуумных электронных лампах.
Однако вскоре, к моменту создания перцептрона он перешел в
противоположный лагерь. В соавторстве с южно-африканским математиком
Пейпертом, с которым его познакомил Маккаллок, он написал книгу
"Перцептроны", где математически доказывалось, что перцептроны, подобные
розенблатовским, принципиально не в состоянии выполнять многие из тех
функций, которые предсказывал им Розенблат. Минский утверждал, что,
перцептроны никогда не обретут даже умения распознавать предмет,
частично заслоненный другим. Глядя на торчащий из-за кресла кошачий
хвост, подобная машина никогда не сможет понять, что она видит. Нельзя
сказать, что появившаяся в 1969 г. эта критическая работа покончила с
кибернетикой. Она лишь переместила интерес аспирантов и субсидии
правительственных организаций США, традиционно финансирующих
исследования по ИИ, на другое направление исследований - "нисходящий
метод". Интерес к кибернетике в последнее время возродился, так как
сторонники "нисходящего метода" столкнулись со столь же неодолимыми
трудностями. Сам Минский публично выразил сожаление, что его выступление
нанесло урон концепции перцептронов, заявив, что, согласно его
теперешним представлениям, для реального прорыва вперед в создании
разумных машин потребуется устройство, во многом похожее на перцептрон.
Но в основном ИИ стал синонимом нисходящего подхода, который выражался в
составлении все более сложных программ для компьютеров, моделирующих
сложную деятельность человеческого мозга.

Искусственный интеллект и естественный язык

Можно выделить две основные линии работ по искусственному интеллекту.
Первая связана с совершенствованием самих машин, с повышением
"интеллектуальности" искусственных систем. Вторая связана с задачей
оптимизации совместной работы "искусственного интеллекта" и собственно
интеллектуальных возможностей человека. Эта задача тесно связана с
лингвистикой, психологией.

Обеспечение взаимодействия с ЭВМ на естественном языке (ЕЯ) является
важнейшей задачей исследований по искусственному интеллекту. Базы
данных, пакеты прикладных программ и экспертные системы, основанные на
ИИ, требуют оснащения их гибким интерфейсом для многочисленных
пользователей, не желающих общаться с компьютером на искусственном
языке. В то время как многие фундаментальные проблемы в области
обработки ЕЯ еще не решены, прикладные системы могут оснащаться
интерфейсом, понимающим ЕЯ при определенных ограничениях.

Существуют два вида и, следовательно, две концепции обработки
естественного языка:

для отдельных предложений;

для ведения интерактивного диалога.

Природа обработки естественного языка

Обработка естественного языка - это формулирование и исследование
компьютерно-эффективных механизмов для обеспечения коммуникации с ЭВМ на
ЕЯ. Объектами исследований являются:

собственно естественные языки;

использование ЕЯ как в коммуникации между людьми, так и в коммуникации
человека с ЭВМ.

Задача исследований - создание компьютерно-эффективных моделей
коммуникации на ЕЯ. Именно такая постановка задачи отличает обработку ЕЯ
от задач традиционной лингвистики и других дисциплин, изучающих ЕЯ, и
позволяет отнести ее к области ИИ. Проблемой обработки ЕЯ занимаются две
дисциплины: лингвистика и когнитивная психология.

Традиционно лингвисты занимались созданием формальных, общих,
структурных моделей ЕЯ, и поэтому отдавали предпочтение тем из них,
которые позволяли извлекать как можно больше языковых закономерностей и
делать обобщения. Практически никакого внимания не уделялось вопросу о
пригодности моделей с точки зрения компьютерной эффективности их
применения. Таким образом, оказалось, что лингвистические модели,
характеризуя собственно язык, не рассматривали механизмы его порождения
и распознавания.

Задачей же когнитивной психологии является моделирование не структуры
языка, а его использования. Специалисты в этой области также не
придавали большого значения вопросу о компьютерной эффективности.

Различаются общая и прикладная обработка ЕЯ. Задачей общей обработки ЕЯ
является разработка моделей использования языка человеком, являющихся
при этом компьютерно-эффективными. Несомненно, общая обработка ЕЯ
требует огромных знаний о реальном мире, и большая часть работ
сосредоточена на представлении таких знаний и их применении при
распознавании поступающего сообщения на ЕЯ. На сегодняшний день ИИ еще
не достиг того уровня развития, когда для решения подобных задач в
большом объеме использовались бы знания о реальном мире, и существующие
системы можно называть лишь экспериментальными, поскольку они работают с
ограниченным количеством тщательно отобранных шаблонов на ЕЯ.

Прикладная обработка ЕЯ занимается обычно не моделированием, а
непосредственно возможностью коммуникации человека с ЭВМ на ЕЯ. В этом
случае не так важно, как введенная фраза будет понята с точки зрения
знаний о реальном мире, а важно извлечение информации о том, чем и как
ЭВМ может быть полезной пользователю (примером может служить интерфейс
экспертных систем). Кроме понимания ЕЯ, в таких системах важно также и
распознавание ошибок и их коррекция.

Основная проблема обработки естественного языка

Основной проблемой обработки ЕЯ является языковая неоднозначность.
Существуют самые разные виды неоднозначности: синтаксическая
(структурная), смысловая неоднозначность, падежная неоднозначность и т.
д.

Центральная проблема, как для общей, так и для прикладной обработки ЕЯ -
разрешение такого рода неоднозначностей - решается с помощью перевода
внешнего представления ЕЯ в некую внутреннюю структуру. Для общей
обработки ЕЯ такое превращение требует набора знаний о реальном мире.

Прикладные системы обработки ЕЯ имеют преимущество перед общими, т.к.
работают в узких предметных областях.

Тем не менее, создание систем, имеющих возможность общения на ЕЯ в
широких областях, возможно, хотя пока результаты далеки от
удовлетворительных.

Распознавание речи

По мере развития компьютерных систем становится все более очевидным, что
использование этих систем намного расширится, если станет возможным
использование человеческой речи при работе непосредственно с
компьютером, и в частности станет возможным управление машиной обычным
голосом в реальном времени, а также ввод и вывод информации в виде
обычной человеческой речи.

Существующие технологии распознавания речи не имеют пока достаточных
возможностей для их широкого использования, но на данном этапе
исследований проводится интенсивный поиск возможностей употребления
коротких многозначных слов (процедур) для облегчения понимания.
Распознавание речи в настоящее время нашло реальное применение в жизни,
пожалуй, только в тех случаях, когда используемый словарь сокращен до 10
знаков, например при обработке номеров кредитных карт и прочих кодов
доступа в базирующихся на компьютерах системах, обрабатывающих
передаваемые по телефону данные. Так что насущная задача –
распознавание, по крайней мере, 20 тысяч слов естественного языка -
остается пока недостижимой. Эти возможности пока недоступны для широкого
коммерческого использования. Однако ряд компаний своими силами пытается
использовать уже существующие в данной области науки знания.

Для успешного распознавания речи следует решить следующие задачи:

1) обработку словаря (фонемный состав),

2) обработку синтаксиса,

3) сокращение речи (включая возможное использование жестких сценариев),

4) выбор диктора (включая возраст, пол, родной язык и диалект),
тренировку дикторов,

5) выбор особенного вида микрофона (принимая во внимание направленность
и местоположение микрофона),

6) условия работы системы и получения результата с указанием ошибок.

Существующие сегодня системы распознавания речи основываются на сборе
всей доступной (порой даже избыточной) информации, необходимой для
распознавания слов. Исследователи считают, что таким образом задача
распознавания образца речи, основанная на качестве сигнала,
подверженного изменениям, будет достаточной для распознавания, но, тем
не менее, в настоящее время даже при распознавании небольших сообщений
нормальной речи, пока невозможно после получения разнообразных реальных
сигналов осуществить прямую трансформацию в лингвистические символы, что
является желаемым результатом.

Проблема искусственного интеллекта

Гносеологический анализ проблемы искусственного интеллекта вскрывает
роль таких познавательных орудий, как категории, специфическая
семиотическая система, логические структуры, ранее накопленное знание.
Они обнаруживаются не посредством исследования физиологических или
психологических механизмов познавательного процесса, а выявляются в
знании, в его языковом выражении. Орудия познания, формирующиеся, в
конечном счете, на основе практической деятельности, необходимы для
любой системы, выполняющей функции абстрактного мышления, независимо от
ее конкретного материального субстрата и структуры. Поэтому, чтобы
создать систему, выполняющую функции абстрактного мышления, т. е. в
конечном счете, формирующую адекватные схемы внешних действий в
существенно меняющихся средах, необходимо наделить такую систему этими
орудиями.

Развитие систем искусственного интеллекта за последние десятилетия идет
по этому пути. Однако степень продвижения в данном направлении в
отношении каждого из указанных познавательных орудий неодинакова и в
целом пока незначительна.

1. В наибольшей мере системы искусственного интеллекта используют
формально-логические структуры, что обусловлено их неспецифичностью для
мышления и, в сущности, алгоритмическим характером. Это дает возможность
относительно легкой их технической реализации. Однако даже здесь
кибернетике предстоит пройти большой путь. В системах искусственного
интеллекта еще слабо используются модальная, императивная, вопросная и
иные логики, которые функционируют в человеческом интеллекте и не менее
необходимы для успешных познавательных процессов, чем давно освоенные
логикой, а затем и кибернетикой формы вывода. Повышение
"интеллектуального" уровня технических систем, безусловно, связано не
только с расширением применяемых логических средств, но и с более
интенсивным их использованием (для проверки информации на
непротиворечивость, конструирования планов вычислений и т. д.).

2. Намного сложнее обстоит дело с семиотическими системами, без которых
интеллект невозможен. Языки, используемые в ЭВМ, еще далеки от
семиотических структур, которыми оперирует мышление.

Прежде всего, для решения ряда задач необходимо последовательное
приближение семиотических систем, которыми наделяется ЭВМ, к
естественному языку, точнее, к использованию его ограниченных
фрагментов. В этом плане предпринимаются попытки наделить входные языки
ЭВМ универсалиями языка, например полисемией (которая элиминируется при
обработке в лингвистическом процессоре). Разработаны
проблемно-ориентированные фрагменты естественных языков, достаточные для
решения системой ряда практических задач. Наиболее важным итогом этой
работы является создание семантических языков (и их формализация), в
которых слова-символы имеют интерпретацию.

Однако многие универсалии естественных языков, необходимые для
выполнения ими познавательных функций, в языках искусственного
интеллекта пока реализованы слабо (например, открытость) или
используются ограниченно (например, полисемия). Все большее воплощение в
семиотических системах универсалий естественного языка, обусловленных
его познавательной функцией, выступает одной из важнейших линий
совершенствования систем искусственного интеллекта, особенно тех, в
которых проблемная область заранее жестко не определена.

Современные системы искусственного интеллекта способны осуществлять
перевод с одномерных языков на многомерные. В частности, они могут
строить диаграммы, схемы, чертежи, графы, высвечивать на экранах кривые
и т. д. ЭВМ производят и обратный перевод (описывают графики и тому
подобное с помощью символов). Такого рода перевод является существенным
элементом интеллектуальной деятельности. Но современные системы
искусственного интеллекта пока не способны к непосредственному (без
перевода на символический язык) использованию изображений или
воспринимаемых сцен для "интеллектуальных" действий. Поиск путей
глобального (а не локального) оперирования информацией составляет одну
из важнейших и перспективных задач теории искусственного интеллекта.

3. Воплощение в информационные массивы и программы систем искусственного
интеллекта аналогов категорий находится пока в начальной стадии. Аналоги
некоторых категорий (например, "целое", "часть", "общее", "единичное")
используются в ряде систем представления знаний, в частности в качестве
"базовых отношений", в той мере, в какой это необходимо для тех или иных
конкретных предметных или проблемных областей, с которыми
взаимодействуют системы.

В формализованном понятийном аппарате некоторых систем представления
знаний предприняты отдельные (теоретически существенные и практически
важные) попытки выражения некоторых моментов содержания и других
категорий (например, "причина", "следствие"). Однако ряд категорий
(например, "сущность", "явление") в языках систем представления знаний
отсутствует. Проблема в целом разработчиками систем искусственного
интеллекта в полной мере еще не осмыслена, и предстоит большая работа
философов, логиков и кибернетиков по внедрению аналогов категорий в
системы представления знаний и другие компоненты интеллектуальных
систем. Это одно из перспективных направлений в развитии теории и
практики кибернетики.

4. Современные системы искусственного интеллекта почти не имитируют
сложную иерархическую структуру образа, что не позволяет им
перестраивать проблемные ситуации, комбинировать локальные части сетей
знаний в блоки, перестраивать эти блоки и т. д.

Не является совершенным и взаимодействие вновь поступающей информации с
совокупным знанием, фиксированным в системах. В семантических сетях и
фреймах, использующихся при представлении знаний, пока недостаточно
используются методы, благодаря которым интеллект человека легко
пополняется новой информацией, находит нужные данные, перестраивает свою
систему знаний и т. д.

5. Еще в меньшей мере современные системы искусственного интеллекта
способны активно воздействовать на внешнюю среду, без чего не может;
осуществляться самообучение и вообще совершенствование
"интеллектуальной" деятельности.

Таким образом, хотя определенные шаги к воплощению гносеологических
характеристик мышления в современных системах искусственного интеллекта
сделаны, но в целом эти системы еще далеко не владеют комплексом
гносеологических орудий, которыми располагает человек и которые
необходимы для выполнения совокупности функций абстрактного мышления.
Чем больше характеристики систем искусственного интеллекта будут
приближены к гносеологическим характеристикам мышления человека, тем
ближе будет их "интеллект" к интеллекту человека, точнее, тем выше будет
их способность к комбинированию знаковых конструкций, воспринимаемых и
интерпретируемых человеком в качестве решения задач и вообще воплощения
мыслей.

В связи с этим возникает сложный вопрос. При анализе познавательного
процесса гносеология абстрагируется от психофизиологических механизмов,
посредством которых реализуется этот процесс. Но из этого не следует,
что для построения систем искусственного интеллекта эти механизмы не
имеют значения. Вообще говоря, не исключено, что механизмы, необходимые
для воплощения неотъемлемых характеристик интеллектуальной системы, не
могут быть реализованы в цифровых машинах или даже в любой технической
системе, включающей в себя только компоненты неорганической природы.
Иначе говоря, в принципе не исключено, что хотя мы можем познать все
гносеологические закономерности, обеспечивающие выполнение человеком его
познавательной функции, но их совокупность реализуема лишь в системе,
субстратно тождественной человеку.

Такой взгляд обосновывается X. Дрейфусом. "Телесная организация
человека, - пишет он, - позволяет ему выполнять... функции, для которых
нет машинных программ - таковые не только еще не созданы, но даже не
существуют в проекте... Эти функции включаются в общую способность
человека к приобретению телесных умений и навыков. Благодаря этой
фундаментальной способности наделенный телом субъект может существовать
в окружающем его мире, не пытаясь решить невыполнимую задачу
формализации всего и вся".

Как отмечают специалисты, подчеркивание значения "телесной организации"
для понимания особенностей психических процессов, в частности
возможности восприятия, заслуживает внимания. Качественные различия в
способности конкретных систем отражать мир тесно связаны с их
структурой, которая хотя и обладает относительной самостоятельностью, но
не может преодолеть некоторых рамок, заданных субстратом. В процессе
биологической эволюции совершенствование свойства отражения происходило
на основе усложнения нервной системы, т. е. субстрата отражения. Не
исключается также, что различие субстратов ЭВМ и человека может
обусловить фундаментальные различия в их способности к отражению, что
ряд функций человеческого интеллекта в принципе недоступен таким
машинам.

Иногда в философской литературе утверждается, что допущение возможности
выполнения технической системой интеллектуальных функций человека
означает сведение высшего (биологического и социального) к низшему (к
системам из неорганических компонентов) и, следовательно, противоречит
материалистической диалектике. Однако в этом рассуждении не учитывается,
что пути усложнения материи однозначно не предначертаны и не исключено,
что общество имеет возможность создать из неорганических компонентов
(абстрактно говоря, минуя химическую форму движения) системы не менее
сложные и не менее способные к отражению, чем биологические. Созданные
таким образом системы являлись бы компонентами общества, социальной
формой движения. Следовательно, вопрос о возможности передачи
интеллектуальных функций техническим системам, и в частности о
возможности наделения их рассмотренными в работе гносеологическими
орудиями, не может быть решен только исходя из философских соображений.
Он должен быть подвергнут анализу на базе конкретных научных
исследований.

X. Дрейфус подчеркивает, что ЭВМ оперирует информацией, которая не имеет
значения, смысла. Поэтому для ЭВМ необходим перебор огромного числа
вариантов. Телесная организация человека, его организма позволяет
отличать значимое от незначимого для жизнедеятельности и вести поиск
только в сфере первого. Для "нетелесной" ЭВМ, утверждает Дрейфус, это
недоступно. Конечно, конкретный тип организации тела позволяет человеку
ограничивать пространство возможного поиска. Это происходит уже на
уровне анализаторной системы. Совсем иначе обстоит дело в ЭВМ. Когда в
кибернетике ставится общая задача, например распознания образов, то эта
задача переводится с чувственно-наглядного уровня на абстрактный. Тем
самым снимаются ограничения, не осознаваемые человеком, но содержащиеся
в его "теле", в структуре органов чувств и организма в целом. Они
игнорируются ЭВМ. Поэтому пространство поиска резко увеличивается. Это
значит, что к "интеллекту" ЭВМ предъявляются более высокие требования
(поиска в более обширном пространстве), чем к интеллекту человека, к
которому приток информации ограничен физиологической структурой его
тела.

Системы, обладающие психикой, отличаются от ЭВМ, прежде всего тем, что
им присущи биологические потребности, обусловленные их материальным,
биохимическим субстратом. Отражение внешнего мира происходит сквозь
призму этих потребностей, в чем выражается активность психической
системы. ЭВМ не имеет потребностей, органически связанных с ее
субстратом, для нее как таковой информация незначима, безразлична.
Значимость, генетически заданная человеку, имеет два типа последствий.
Первый - круг поиска сокращается, и, тем самым, облегчается решение
задачи. Второй - нестираемые из памяти фундаментальные потребности
организма обусловливают односторонность психической системы. Дрейфус
пишет в связи с этим: "Если бы у нас на Земле очутился марсианин, ему,
наверное, пришлось бы действовать в абсолютно незнакомой обстановке;
задача сортировки релевантного и нерелевантного, существенного и
несущественного, которая бы перед ним возникла, оказалась бы для него
столь же неразрешимой, как и для цифровой машины, если, конечно, он не
сумеет принять в расчет никаких человеческих устремлений". С этим нельзя
согласиться. Если "марсианин" имеет иную биологию, чем человек, то он
имеет и иной фундаментальный слой неотъемлемых потребностей, и принять
ему "человеческие устремления" значительно труднее, чем ЭВМ, которая
может быть запрограммирована на любую цель.

Животное в принципе не может быть по отношению к этому фундаментальному
слою перепрограммировано, хотя для некоторых целей оно может быть
запрограммировано вновь посредством дрессировки. В этом (но только в
этом) смысле потенциальные интеллектуальные возможности машины шире
таких возможностей животных. У человека над фундаментальным слоем
биологических потребностей надстраиваются социальные потребности, и
информация для него не только биологически, но и социально значима.
Человек универсален и с точки зрения потребностей и с точки зрения
возможностей их удовлетворения. Однако эта универсальность присуща ему
как социальному существу, производящему средства целесообразной
деятельности, в том числе и системы искусственного интеллекта.

Таким образом, телесная организация не только дает дополнительные
возможности, но и создает дополнительные трудности. Поэтому интеллекту
человека важно иметь на вооружении системы, свободные от его собственных
телесных и иных потребностей, пристрастий. Конечно, от таких систем
неразумно требовать, чтобы они самостоятельно распознавали образы,
классифицировали их по признакам, по которым это делает человек. Им цели
необходимо задавать в явной форме.

Вместе с тем следует отметить, что технические системы могут иметь
аналог телесной организации. Развитая кибернетическая система обладает
рецепторными и эффекторными придатками. Начало развитию таких систем
положили интегральные промышленные роботы, в которых ЭВМ в основном
выполняет функцию памяти. В роботах третьего поколения ЭВМ выполняет и
"интеллектуальные" функции. Их взаимодействие с миром призвано
совершенствовать их "интеллект". Такого рода роботы имеют "телесную
организацию", конструкция их рецепторов и эффекторов содержит
определенные ограничения, сокращающие пространство, в котором,
абстрактно говоря, могла бы совершать поиск цифровая машина.

Тем не менее, совершенствование систем искусственного интеллекта на базе
цифровых машин может иметь границы, из-за которых переход к решению
интеллектуальных задач более высокого порядка, требующих учета
глобального характера переработки информации и ряда других
гносеологических характеристик мышления, невозможен на дискретных
машинах при сколь угодно совершенной программе. Это значит, что
техническая (а не только биологическая) эволюция отражающих систем
оказывается связанной с изменением материального субстрата и конструкции
этих систем. Такая эволюция, т. е. аппаратурное усовершенствование
систем искусственного интеллекта, например, через более интенсивное
использование аналоговых компонентов, гибридных систем, голографии и
ряда других идей, будет иметь место. При этом не исключается
использование физических процессов, протекающих в мозгу, и таких,
которые психика в качестве своих механизмов не использует. Наряду с этим
еще далеко не исчерпаны возможности совершенствования систем
искусственного интеллекта путем использования в функционировании
цифровых машин гносеологических характеристик мышления, о которых речь
шла выше.

В последнее время при анализе проблем, связанных с искусственным
интеллектом, часто применяют математический аппарат нечетких множеств,
идея и реализация которого принадлежит американскому математику
Л.А.Заде. Суть его подхода состоит в своего рода некотором отказе от
принципа детерминизма. Пожалуй, наиболее поразительным свойством
человеческого интеллекта является способность принимать правильные
решения в обстановке неполной и нечеткой информации. Построение моделей
приближенных рассуждений человека и использование их в компьютерных
системах будущих поколений представляет сегодня одну из важнейших
проблем науки. Смещение центра исследований нечетких систем в сторону
практических приложений привело к постановке целого ряда проблем таких,
как новые архитектуры компьютеров для нечетких вычислений, элементная
база нечетких компьютеров и контроллеров, инструментальные средства
разработки, инженерные методы расчета и разработки нечетких систем
управления и многое другое. Математическая теория нечетких множеств,
предложенная Л.А.Заде около тридцати лет назад, позволяет описывать
нечеткие понятия и знания, оперировать этими знаниями и делать нечеткие
выводы. Основанные на этой теории методы построения компьютерных
нечетких систем существенно расширяют области применения компьютеров. В
последнее время нечеткое управление является одной из самых активных и
результативных областей исследований применения теории нечетких
множеств. Нечеткое управление оказывается особенно полезным, когда
технологические процессы являются слишком сложными для анализа с помощью
общепринятых количественных методов, или когда доступные источники
информации интерпретируются качественно, неточно или неопределенно.
Экспериментально показано, что нечеткое управление дает лучшие
результаты, по сравнению с получаемыми при общепринятых алгоритмах
управления. Нечеткие методы помогают управлять домной и прокатным
станом, автомобилем и поездом, распознавать речь и изображения,
проектировать роботов, обладающих осязанием и зрением. Нечеткая логика,
на которой основано нечеткое управление, ближе по духу к человеческому
мышлению и естественным языкам, чем традиционные логические системы.
Нечеткая логика, в основном, обеспечивает эффективные средства
отображения неопределенностей и неточностей реального мира. Наличие
математических средств отражения нечеткости исходной информации
позволяет построить модель, адекватную реальности.

Заключение

Природа мышления, загадка сознания, тайна разума, все это, безусловно,
одна из наиболее волнующих человека проблем. С того самого момента, как
человек стал задумываться над проблемой мышления, в подходе к ней
существуют два основных диаметрально противоположных направления:
материализм и идеализм. Идеализм исходит из признания мышления некой
особой сущностью, в корне отличной от материи, от всего того, с чем мы
имеем дело во внешнем мире. Материализм, напротив, утверждает, что
вещественный, чувственно воспринимаемый нами мир, к которому принадлежим
мы сами, есть единственный действительный мир и наше сознание и
мышление, как бы ни казалось оно сверхчувствительным, являются продуктом
вещественного, телесного органа.

Можно пытаться объяснить, что, так как кибернетика позволяет
моделировать некоторые функции мозга, то сознание или разум имеет чисто
материальную основу. Однако данная область может считаться слабо
изученной, несмотря на труд не одного поколения ученых, и делать
подобные выводы еще более чем рано.

До сих пор диалектико-материалистическое понимание мышления опиралось,
главным образом, на обобщенные данные психологии, физиологии и
языкознания. Данные кибернетики позволяют поставить вопрос о более
конкретном понимании мышления.

Инструментом философии является знание. Именно инструментом, а не
результатом. Знание не есть конечный предмет, который можно положить в
сундук и сказать: "Да, теперь у меня есть знание!" Знание - это цепочка.
Знание в области искусственного интеллекта - тоже есть цепочка, причем
бесконечная.

Инструментом же кибернетики является моделирование. С точки зрения
теории моделирования вообще не имеет смысла говорить о полном тождестве
модели и оригинала. Поэтому нельзя стопроцентно смоделировать разумное
поведение, объект, способный мыслить, и поместить его все в тот же
сундук. Все это вполне согласуется с понятием знания.

Развитие информационной техники позволило компенсировать человеку
психофизиологическую ограниченность своего организма в ряде направлений.
"Внешняя нервная система", создаваемая и расширяемая человеком, уже дала
ему возможность вырабатывать теории, открывать количественные
закономерности, раздвигать пределы познания сложных систем.
Искусственный интеллект и его совершенствование превращают границы
сложности, доступные человеку, в систематически раздвигаемые. Это
особенно важно в современную эпоху, когда общество не может успешно
развиваться без рационального управления сложными и сверхсложными
системами. Разработка проблем искусственного интеллекта является
существенным вкладом в осознание человеком закономерностей внешнего и
внутреннего мира, в их использование в интересах общества и, тем самым,
в развитие свободы человека.

Литература:

"Будущее искусственного интеллекта." М., Наука, 1991, ред.: Карл,
Левитин, Поспелов, Хорошевский.

Алексеева И.Ю. "Знание как объект компьютерного моделирования."//
"Вопросы философии", 1987, №3, с. 42-49.

Алексеева И.Ю. "Искусственный интеллект и рефлексия над знаниями."//
"Философия науки и техники", 1991, №9, с. 44-53.

Анисов А.М. "ЭВМ и понимание математических доказательств."// "Вопросы
философии", 1987, №3, с. 29-40.

Артоболевский И.И., Кобринский А.Е. "Знакомьтесь – роботы", М., 1979

Вапиик В.Н. "Задача обучения распознаванию образа"

Винер Н. "Кибернетика или управление и связь в животном и машине.", М.,
Наука 1983.

Гаврилов А.В., Канглер В.М. "Использование искусственных нейронных сетей
для анализа данных."// Сб. научн. трудов НГТУ. - Новосибирск: Изд-во
НГТУ, 1999. - № 3(16)

Геранзон Бу "Практический интеллект"// "Вопросы философии", 1998, №6

Глушков В.М. "Кибернетика: вопросы теории и практики"

Глушков В.М. "Что такое кибернетика", Педагогика, М., 1975

Джордж Ф. "Мозг как вычислительная машина", М., 1963

Клаус Г. "Кибернетика и философия", М.: Иностранная литература, 1963

Кругликов Р.И. "П.В. Симонов. Созидающий мозг. Нейробиологические основы
творчества"// "Вопросы философии", 1994, №3

Кузнецов Н.А., Мускешвили Н.Л., Шрейдер Ю.А. "Информационное
взаимодействие как объект научного исследования"// "Вопросы философии",
1999, №1

Лекторский В.А. "Теория познания (гносеология, эпистемология)"//
"Вопросы философии", 1999, №8

Лефевр В.А. "Непостижимая" эффективность математики в исследованиях
человеческой рефлексии. // "Вопросы философии", 1990, №7, с. 51-58.

Лефевр В.А. "От психофизики к моделированию души."// "Вопросы
философии", 1990, №7, с. 25-31.

Мамардашвили М.К. "Сознание как философская проблема"// "Вопросы
философии", 1990, №10

Моисеев Н.Н. "Люди и кибернетика"

Носов Н.А. "Виртуальная реальность"// "Вопросы философии", 1999, №10

Оезер Э. "Мозг, язык и мир"// "Вопросы философии", 1998, №5

Петрунин Ю.Ю. "Искусственный интеллект как феномен современной
культуры."// "Вестник Московского университета", 1994, №8, с. 28-34.

Пивкин В.Я., Бакулин Е.П., Кореньков Д.И. "Нечеткие множества в системах
управления"

Поспелов Д.А. "Философия или наука. На пути к искусственному
интеллекту." М., Наука, 1982.

Розов М.А. "Знание как объект исследования. Воспоминания о работе
новосибирского семинара (1963-1980)"// "Вопросы философии", 1999, №1

Смирнов В.А. "А.И. Ракитов. Философия компьютерной революции"// "Вопросы
философии", 1993, №1

Смирнова З.Н. "Проблема разума в философской концепции Чаадаева"//
"Вопросы философии", 1998, №11

Тимофеев А.А. "Информатика и компьютерный интеллект", М., 1991

Тьюринг А. "Может ли машина мыслить?", М., Наука, 1960.

Шалютин С.М. "Искусственный интеллект: гносеологический аспект", М.:
Мысль, 1985

Шрейдер Ю.А. "Искусственный интеллект, рефлексивные структуры и
антропный принцип."// "Вопросы философии", 1995, №7, с. 163-167.

Шрейдер Ю.А. "Человеческая рефлексия и две системы этического
сознания."// "Вопросы философии", 1990, №7, с. 32-41.

Эндрю А. "Искусственный интеллект", М.: Мир, 1985



      ©2010