1. Введение.

1.1. Введение и задачи работы.

1.2. Формализация нейронных сетей.

1.3. Краткое описание метода автономного адаптивного управления.

1.4. Основные понятия и обозначения.

1.5. Алгебра образов.

  1. Моделирование среды.

  1. Аппарат ФРО.

3.1. Биологический нейрон.

3.2. Формальная модель нейрона.

3.3. Задача построения ФРО.

    1. Распознавание пространственно-временных образов.

  1. База знаний.

  1. Система построения и исследования нейронных сетей (СПИНС).

5.1. Актуальность системы.

5.2. Общая коцепция системы.

5.3. Конструкторы сетей. Библиотеки шаблонов.

    1. Организация вычислений в сети.

    2. Анализаторы работы сети.

    3. Реализация блока оценки состояния.

    4. Реализация модели среды.

    5. Пример работы программы.

    6. Перспективы развития системы.

  • Заключение.

  • Благодарности.

  • Литература.


Сокращения и обозначения
.

Принятые сокращения

ААУ – автономное адаптивное управление

БД – блок датчиков

БЗ – база знаний

БОС - блок оценки состояния

БПР – блок принятия решений

ГИП – графический интерфейс пользователя (GUI)

ИО – исполнительный орган

НРС – недетерминированный автомат Рабина-Скотта

НС – нейронная сеть

МНРС – модифицированный недетерминированный автомат Рабина-Скотта

ОУ – объект управления

ПВО – пространственнно-временной образ

СВ - случайная величина

СПИНС – система построения и исследования нейронных сетей

УС – управляющая система

ФР – функция распределения

ФРО – аппарат формирования и распознавания образов

Принятые обозначения

- множество неотрицательных целых чисел

- граф со множеством вершин V и множеством ребер N

- ребро, направленное из вершины i в вершину j

- взаимнооднозначное отображение множества X на множество Y

- множество конечных подмножеств множества X

R[a,b] – множество вещественных чисел на [a,b]

BN - пространство двоичных векторов размерности N

- пустое слово из множества входных слов КА

0 – ложь в выражении трехзначной логики

1 – истина в выражении трехзначной логики

- неопределенность в выражении трехзначной логики

- есть подвектор (совокупность выбранных компонент) вектора

- класс Y является потомком класса X


  1. Введение
    .

1.1. Введение и задачи работы.

При современном уровне развития техники, когда даже бытовая техника оснащается микропроцессорными устройствами, возникла потребность в интеллектуальных адаптивных системах управления, способных приспосабливаться к очень широкому диапазону внешних условий. Более того, возникла потребность в универсальной технологии создания таких систем. Научный опыт человечества свидетельствует о том, что в природе можно найти великое множество ценных идей для науки и техники. Человеческий мозг является самым удивительным и загадочным созданием природы. Способность живых организмов, наделенных высшей нервной системой, приспосабливаться к окружающей среде может служить призывом к подражанию природе или имитации при создании технических систем.

Среди имитационных подходов выделяется класс нейросетевых методов. Нейронные сети (НС) нашли широкое применение в областях искуственного интеллекта, в основном связанных с распознаванием образов и с теорией управления. Одним из основных принципов нейросетевого подхода является принцип коннективизма. Суть его выражается в том, что рассматриваются очень простые однотипные объекты, соединенные в большую и сложную сеть. Таким образом, НС является в первую очередь графом, с которым можно связать совокупность образов, представленных как численные значения, ассоциированные с вершинами графа, алгоритм для преобразования этих численных значений посредством передачи данных между соседними вершинами и простых операций над ними. Современный уровень развития микроэлектроники позволяет создавать нейрочипы, состоящие из очень большого числа простых элементов, способных выполнять только арифметические операции. Таким образом, нейросетевые методы поддерживается аппаратно.

Математически НС можно рассматривать как класс методов статистического моделирования, который в свою очередь можно разделить на три класса: оценка плотности вероятности, классификация и регрессия [NN]. В частности, в [NN] показано, что с помощью сетей обратного распространения и обобщенного - правила решается задача оценки плотности вероятности методом смешивания гауссовских распределений.

В отделе имитационных систем Института Системного Программирования РАН разработан метод автономного адаптивного управления (ААУ). Предполагается, что система ААУ может быть полностью реализована на нейронной сети [Диссер, Жданов1-9]. В отличии от традиционного использования НС для решения только задач распознавания и формирования образов, в методе ААУ согласованно решаются задачи

  • распознавания и формирования образов

  • получения и хранения знаний (эмпирически найденных закономерных связей образов и воздействий на объект управления)

  • оценки качественных характеристик образов

  • принятия решений (выбора воздействий).

Особенностями метода ААУ являются:

  • Избыточность нейронов в сети, необходимая для адаптации системы управления (УС) к изменяющимся условиям существования объекта управления (ОУ). Вследствие этого для практической реализации УС необходимо создание больших НС (для сравнения человеческий мозг содержит ~1011 нейронов).

  • НС состоит из специфичных нейронов, являющимися более близкими аналогами биологического нейрона и приспособленными для решения задач ААУ (раздел 3.2)

  • Нейроны в сети соединяются специальным образом, также для решения задач ААУ.

Особенности метода ААУ делают непригодными или малопригодными существующие системы САПР и системы моделирования традиционных НС (например, BrainMaker) для создания прототипов УС ААУ. Ввиду этого обстоятельства задачами дипломной работы были:

  1. Разработка инструмента СПИНС для моделирования и исследования нейросетевых реализаций прототипов УС ААУ.

  2. Разработка общей схемы нейросетевой реализации прототипов УС ААУ.

1.2. Формальная модель нейрона и нейросети.

Понятие схемы было введено для формализации вычислений на параллельных компьютерах [Итоги91]. Мы используем это понятие для формального описания нейронных сетей, т.к. оно подходит для этих целей почти без изменений. Одним из следствий такой близости схем и НС является возможность хорошего распараллеливания вычислений в моделях НС.

Определение 1.2.1. Назовем схемой c ориентированный ациклический ортграф (допустимы ребра с общими вершинами), вершинами которого являются параметризованные операции, т.е. операции, зависящие от некоторого параметра t. Аргументами операции являются все входные вершины или входы, т.е. такие вершины, для которых есть ребра (входные ребра), исходящие из них и направленные к данной вершине, - входная арность i-ой вершины, т.е. число входных вершин, -выходная арность i-ой вершины, т.е. число выходных вершин или выходов. Определим размер схемы s(c) как общее число вершин схемы, глубину схемы d(c) как максимальную длину ориентированного пути в графе c.Порядок вершины определяетсярекурсивно: для вершин у которых нет входов, принадлежащих сети (истоки сети), порядок равен 0, для остальных порядок есть максимум порядка входов плюс единица. Входами сети будем называть некоторое подмножество множества истоков сети. Выходами сети будем считать просто некоторое множество вершин сети.

Определение1.2.2. Здесь и далее под нейронной сетью будем понимать схему.

По сути схема является совокупностью композиций некоторых параметризованных операций. Глубина схемы есть максимальный уровень вложенности композиций. В методологии НС важно, что эти операции являются вычислительно простыми, наподобие взвешенной суммы илибулевых конъюнкции и дизъюнкции, при этом выбирается большое количество аргументов и композиций. В этом суть коннективизма. Параметр t является по сути временным параметром. Заметим, что здесь и далее полагаем время дискретным, хотя для формализации НС это не принципиально. Перенумеровав вершины схемы, можно записать общий вид параметризованной операции:

,

где (t) - i-ая параметризованная операция, - входные вершины, - синаптическая задержка на ребре . Конкретный вид функции для предлагаемой модели нейрона будет представлен в разделе «Аппарат ФРО».

Пример 1.2.1. В качестве операции-вершины может быть любая операция трехзначной логики (разд. 1.5).

Определение1.2.3. Выходами подграфа G(V, N), где V - множество ребер, N – множество вершин.сети будем называть все ребра , входами все ребра .

Определение1.2.4. Определим блок как связный подграф сети с одним выходом.

Определение1.2.5. Назовем блок шаблоном некоторого блока если между этими блоками существует изоморфное отображение, т.е. такая пара отображений

Определение1.2.6. Разбиением сети на блоки с шаблоном B будем называть совокупность непересекающихся блоков такую, что для всех этих блоков B является шаблоном и объединение всех блоков и межблоковых ребер (имеется ввиду два разных объединения: множеств вершин и множеств ребер) есть вся сеть.

Определение1.3.7. Совокупность рекурсивных разбиений сети , где есть разбиение шаблона будем называть конструкцией сети, а множество шаблонами конструктора.

Определение1.2.8. Таким образом, под формальной моделью нейрона будем понимать шаблон разбиения сети , у которого выход есть булева операция. Под нейроном будем понимать собственно блок.

Например, на рис.1.2.1 представлена формальная модель перспептрона, где все блоки имеют один шаблон МакКаллока-Питтса [Маккалок].

Вообще говоря, состояние обученности нейрона для каждой формальной модели определяется по своему и, неформально выражаясь, это состояние, в котором считается, что нейрон уже «обучен» для решения своей задачи классификации. Отметим, что процесс обучения необратим.

Определение 1.2.9. Будем говорить, что сетью распознан образ i, если после предъявления сети некоторого входного сигнала на выходе i-ого нейрона появляется 1.

Распознавание образа есть по сути положительный ответ в решении задачи классификации для данного нейрона.

[image]

Рис.1.2.1.

1.3. Краткое описание метода автономного адаптивного управления.

Метод ААУ подробно описан в работах [Жданов3-9], поэтому представим только основные его стороны. Будем называть управляющей системой (УС) систему управления, имитирующую нервную систему в соответствии с методологией ААУ. Под объектом управления (ОУ) будем понимать организм, который несет в себе нервную систему, другими словами, ОУ - это объект, который должен управляться посредством УС, расположенной внутри ОУ и взаимодействующей со своим окружением посредством блока датчиков (БД) и исполнительных органов (ИО).

Рис. 1.3.1.

На рис. 1.3.1 представлена система, под которой будем понимать среду, в которую вложен ОУ, в свою очередь содержащий в себе УС. Как видно из рисунка, можно утверждать, что УС управляет не только ОУ, но всей системой. Под средой в системе можно понимать разные объединения объектов. Будем называть средой W совокупность объектов, лежащих вне УС; средой S - совокупность объектов, лежащих вне ОУ; средой U - всю систему.

Блок датчиков поставляет УС входную информацию в виде двоичного вектора. Этот блок необходим в реальных системах для сопряжения среды и УС, поэтому при моделировании УС на ЭВМ не использовался и мы не акцентируем внимание на нем в данной работе.

Работу блока формирования и распознавания образов (ФРО) можно представить следующим способом (подробное описание см. в работах [Жданов3, Жданов8]). В блоке ФРО на основании априорной информации о возможных функциональных свойствах среды заданы некоторые объекты, назовем их нейронами (например, нейроны специального вида, описанные в работе [Жданов8]), на которые отображаются некоторые классы пространственно-временных явлений, которые потенциально могут существовать в системе. Отображение задается топологией сети. В классе, отображаемом на нейрон, выделяется подкласс, который может восприниматься данным нейроном. Каждый нейрон может статистически анализировать воспринимаемый им подкласс. Накапливая статистическую информацию о воспринимаемом подклассе, нейрон может принять решение, является ли этот подкласс случайным или неслучайным явлением в системе. Если какой-либо нейрон принимает решение, что отображаемый на него подкласс является неслучайным событием, то он переходит в некоторое отличное от исходного