Архитектура TSK (Takagi, Sugeno, Kang'a)

Структура нечёткой сети TSK основана на системе нечёткого вывода Такаги- Сугэно-Канга. При этом в качестве функции фаз- зификации для каждой переменной xt используется обобщённая функция Гаусса:

Для агрегации условия /-го правила в системе вывода TSK используется операция алгебраического произведения:

При М правилах вывода агрегирование выходного результата сети производится по формуле, которую можно представить в виде:

N

где yi(x) = Pio+^PijXj, агрегация импликации. Присутствую- >i

щие в этом выражении веса w, интерпретируются как компоненты //'1 (.V), определённые формулой . При этом формуле можно сопоставить многослойную структуру сети, изображенную на рисунке 27. В такой сети выделяется пять слоёв:

Слой 1. выполняет раздельную фаззификацию каждой переменной xjj = 1,2..., АО определяя для каждого /-го правили вывода значение коэффициента принадлежности //^(х,-) в соответствии с применяемой функцией фаззификации. Это параметрический слой с параметрами подлежащими адаптации в

процессе обучения.

Слой 2. выполняет агрегирование отдельных переменных х,, определяя результирующее значение коэффициента принадлежности Wj = // , (х) для векторах в соответствии с формулой . Этот слой непараметрический.

Слой 3. представляет собой генератор функции TSK, рассчи-

?V

тывающий значения у1 (х) = Р,п + ^ Р„х, . В этом слое также про-

м

исходит умножение сигналов д(х) на значения w„ сформированные в предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные веса р,: для / =1,2..., М и j =1,2..., N, определяющие функцию следствия модели TSK.

Слой 4. составляют два нейрона- сумматора, один из которых рассчитывает взвешенную сумму сигналовд(х), а второй опреде-

Л/

ляет сумму весов w . Это непараметрический слой.

i=i

Слой 5. состоит из одного выходного нейрона-это нормализующий слой, в котором веса подвергаются нормализации в соответствии с формулой . Выходной сигнал дх) определяется выражением, соответствующим зависимости:

которая линейна относительно всех входных переменных системы X) для j = 1,2..., N. Веса w, являются нелинейными параметрами функции;’, которые уточняются в процессе обучения. Коэффициенты р0ь ..., рх - эго веса, подбираемые в процессе обучения.

Это также непараметрический слой.

Структура нечёткой нейронной сети TSK

Рис. 27- Структура нечёткой нейронной сети TSK

При уточнении функциональной зависимости для сети TSK получаем:

Если принять, что в конкретный момент времени параметры условия зафиксированы, то функция >>(*) является линейной относительно переменных xfj =1,2,..., N).

При наличии N входных переменных каждое правило формирует N + 1 переменных pi} линейной зависимости TSK. При М правилах вывода это даёт М (N + 1) линейных параметров сети. В свою очередь каждая функция принадлежности использует три параметра, подлежащих адаптации. Так как каждая переменная х} характеризуется собственной функцией принадлежности, то мы получим 3MN нелинейных параметров. В сумме это даёт M(4N + 1) линейных и нелинейных параметров, значения которых должны подбираться в процессе обучения сети.

 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ   ОРИГИНАЛ     След >