Меню
Главная
Авторизация/Регистрация
 
Главная arrow Информатика arrow ИНТЕЛЛЕКТУАЛЬНЫЕ СИСТЕМЫ: НЕЧЕТКИЕ СИСТЕМЫ И СЕТИ
Посмотреть оригинал

Обучение нечеткой нейронной сети

В существующих системах с нечеткими нейронными сетями одним из важнейших вопросов является разработка оптимального метода настройки нечеткой базы правил, исходя из обучающей выборки, для получения конструктивной и оптимальной модели нечеткой нейронной сети. В основном нечеткие правила описываются экспертами или операторами согласно их знаниям и опыту о соответствующих процессах. Но в случае разработки нечеткой нейронной сети довольно тяжело или почти невозможно сразу получить нечеткие правила или функции принадлежности вследствие неясности, неполноты или сложности описываемой системы. В таких случаях целесообразным считается уточнение нечетких правил и функций принадлежности, используя специальные алгоритмы обучения.

Обучение нечеткой нейронной сети ANFIS

Так как нечеткая сеть ANFIS, описанная ранее, представляется в виде многослойной структуры с прямым распространением сигнала, а значение выходной переменной можно изменять, корректируя параметры элементов слоев, то для обучения этой сети можно использовать градиентный алгоритм. Основной характерной чертой данного подхода является то, что настройка параметров функций принадлежности осуществляется без модификации базы правил [7]. Пусть задана обучающая выборка, состоящая из множества примеров, xf^.Xj ,...,х^’ - значения входных переменных х,,х2,...,хга, y{k) - эталонное значение выходной переменной у в к-м примере, К- общее число примеров в обучающей выборке. Отметим, что для нечеткой нейронной сети ANFIS с использованием алгоритма Сугено настраиваемыми параметрами являются параметры функций принадлежности формула, где ai} - центр функции принадлежности, btj - ширина данной функции.

На первом этапе обучения для каждого примера из обучающей выборки по значениям входных переменных нечеткая сеть рассчитывает значения выходной переменной у .

На втором этапе вычисляется функция ошибки для всех примеров обучающей выборки:

В данном случае функция ошибки может быть записана как функция, зависящая от следующих аргументов:

На третьем этапе корректируются значения (а,г Ь0) по каждому примеру обучающей выборки, исходя из соотношений

где t - номер итерации обучения, rj е [0,1] - коэффициент, характеризующий скорость обучения.

Этапы 1 - 3 итерационно повторяются, и процедура корректировки значений всех параметров считается завершенной в случае, если значение функции ошибки но каждому примеру обучающей выборки не превышает некоторого установленного порога:

либо оценка средней суммарной погрешности нечеткой сети с учетом всех примеров обучающей выборки не превышает некоторого установленного порога:

В этом случае считается, что нечеткая сеть успешно обучилась.

При обучении с помощью алгоритма обратного распространения ошибки обеспечивается свойство единственности представления лингвистических термов за счет связанной адаптации параметров функций принадлежности.

 
Посмотреть оригинал
Если Вы заметили ошибку в тексте выделите слово и нажмите Shift + Enter
< Предыдущая   СОДЕРЖАНИЕ   Следующая >
 
Популярные страницы