Архитектура NNFLC (Neurons Network Fuzzy Logic Controller)

NNFLC - нечеткий контроллер на основе нейронной сети. Структура NNFLC приведена на рис. 26. Особенность структуры NNFLC - это различная функциональность слоев. Опишем кратко функции слоев.

Слой 2. у 1 — min Гу, * Слой 2 моделирует И-условия

правил.

Слой 3. У^ = тахГу[2...,у^1 - функция рабочего режима, которая представляет собой ИЛИ-комбинацию правил с одинаковыми термами в консеквснтах. В режиме обучения слой настраивает пара метры функций принадлежности выходных переменных.

Структура сети NNFLC

Рис. 26 - Структура сети NNFLC

Слой 4. В рабочем режиме нейроны выполняют дефаззифика- цию, а в режиме обучения это дополнительный вход, выполняющий нормализацию:

Обучение нейронной сети сложной архитектуры (с различными функциональными слоями) обычно происходит многоэтапно, причем на каждом этапе используются различные алгоритмы обучения: нредобучение (offline), оперативное (online), без учителя, с учителем. Структура нечеткой нейронной сети NNFLC инициализируется по принципу формирования полной матрицы правил.

Если х,— входные переменные, Т (л'() - количество нечетких м< ток (разбиений) х,, то исходное количество правил: Т = J"[ r(.vf)

- количество нечетких ме-

Общая схема обучения нечеткой не NNFLC содержит следующие этапы:

  • - формирование обучающих данных;
  • - самоорганизующаяся кластеризация (настройка функций принадлежности);
  • - соревновательное обучение (алгоритм победителя);
  • - удаление правил;
  • - комбинирование правил;
  • - окончательная настройка пара метров (тюнинг) функций принадлежности с помощью алгоритма обратного распространения ошибки.

Далее приведем содержательные характеристики этапов обучения. Настройка параметров функций принадлежности включает в себя обучение центров с, и ширины <т, для функции принадлежности, представленной функцией формы:

Алгоритм победителя выявляет

где i}(t) - монотонно убывающий уровень обучения. Настройка ширины ег осуществляется эвристически, например по прин-

, Я - пара-

ципу «первого ближайшего соседа»: сг =

мстр перекрытия. Найти матрицу весов иг , которая оценивает качество связей левой и правой частей правил можно на основе алгоритма победителя

Комбинирование правил часто целесообразно выполнить с участием эксперта. Окончательная настройка функций принадлежности выполняется с помощью алгоритма обратного распро-

странения ошибки для функции ошибки е. -dk . Цепоч

ка правил распространяет ошибку до слоя 1 с обратным роутин- гом. Таким образом, можно сделать вывод о том, что архитектура NNFLC может быть проинтерпретирована как система нечеткого вывода Такаги-Сугено.

 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ   ОРИГИНАЛ     След >