Архитектура TSK (Takagi, Sugeno, Kang'a)
Структура нечёткой сети TSK основана на системе нечёткого вывода Такаги- Сугэно-Канга. При этом в качестве функции фаз- зификации для каждой переменной xt используется обобщённая функция Гаусса:

Для агрегации условия /-го правила в системе вывода TSK используется операция алгебраического произведения:

При М правилах вывода агрегирование выходного результата сети производится по формуле, которую можно представить в виде:

N
где yi(x) = Pio+^PijXj, агрегация импликации. Присутствую- >i
щие в этом выражении веса w, интерпретируются как компоненты //'1 (.V), определённые формулой . При этом формуле можно сопоставить многослойную структуру сети, изображенную на рисунке 27. В такой сети выделяется пять слоёв:
Слой 1. выполняет раздельную фаззификацию каждой переменной xjj = 1,2..., АО определяя для каждого /-го правили вывода значение коэффициента принадлежности //^(х,-) в соответствии с применяемой функцией фаззификации. Это параметрический слой с параметрами подлежащими адаптации в
процессе обучения.
Слой 2. выполняет агрегирование отдельных переменных х,, определяя результирующее значение коэффициента принадлежности Wj = // , (х) для векторах в соответствии с формулой . Этот слой непараметрический.
Слой 3. представляет собой генератор функции TSK, рассчи-
?V
тывающий значения у1 (х) = Р,п + ^ Р„х, . В этом слое также про-
м
исходит умножение сигналов д(х) на значения w„ сформированные в предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные веса р,: для / =1,2..., М и j =1,2..., N, определяющие функцию следствия модели TSK.
Слой 4. составляют два нейрона- сумматора, один из которых рассчитывает взвешенную сумму сигналовд(х), а второй опреде-
Л/
ляет сумму весов w . Это непараметрический слой.
i=i
Слой 5. состоит из одного выходного нейрона-это нормализующий слой, в котором веса подвергаются нормализации в соответствии с формулой . Выходной сигнал дх) определяется выражением, соответствующим зависимости:

которая линейна относительно всех входных переменных системы X) для j = 1,2..., N. Веса w, являются нелинейными параметрами функции;’, которые уточняются в процессе обучения. Коэффициенты р0,рь ..., рх - эго веса, подбираемые в процессе обучения.
Это также непараметрический слой.

Рис. 27- Структура нечёткой нейронной сети TSK
При уточнении функциональной зависимости для сети TSK получаем:

Если принять, что в конкретный момент времени параметры условия зафиксированы, то функция >>(*) является линейной относительно переменных xfj =1,2,..., N).
При наличии N входных переменных каждое правило формирует N + 1 переменных pi} линейной зависимости TSK. При М правилах вывода это даёт М (N + 1) линейных параметров сети. В свою очередь каждая функция принадлежности использует три параметра, подлежащих адаптации. Так как каждая переменная х} характеризуется собственной функцией принадлежности, то мы получим 3MN нелинейных параметров. В сумме это даёт M(4N + 1) линейных и нелинейных параметров, значения которых должны подбираться в процессе обучения сети.