Меню
Главная
Авторизация/Регистрация
 
Главная arrow Информатика arrow ИНТЕЛЛЕКТУАЛЬНЫЕ СИСТЕМЫ: НЕЧЕТКИЕ СИСТЕМЫ И СЕТИ
Посмотреть оригинал

Основные понятия и определения нечетких нейронных (гибридных) сетей

Нечеткая нейронная сеть (fuzzy-neural networks) функционирует стандартным образом на основе четких действительных чисел. Нечеткой является только интерпретация результатов.

Для пояснения сущности нечетких нейронных сетей, рассмотрим простую нейронную есть, имеющую два входа и только один нейрон (рис. 21).

Элементарная нейронная сеть

Рис. 21 - Элементарная нейронная сеть

Здесь входные сигналы х, «взаимодействуют» с весами vr, образуя произведения

Такая частная информация (произведения) объединяются с использованием операции суммирования, образуя вход net нейрона:

Выход нейрона образуется в результате преобразования входа net некоторой активационной функцией:

например, сигмоидального типа

Приведенную однослойную нейронную сеть, в которой используются операции умножения, суммирования и сигмоидальная функция активации, будем называть стандартной нейронной сетью.

В случае применения других операций, таких как t-норма или t-конорма (подразд. 1.5), придем к нейронной сети, которая будет называться нечеткой нейронной сетью.

Нечеткая нейронная (гибридная) сеть - это нейронная сеть с четкими сигналами, весами и активационной функцией, но с объединением х, и vv,, и р2 с использованием t-нормы, t-конормы или некоторых других непрерывных операций. Входы, выходы и веса нечеткой нейронной сети вещественные числа, принадлежащие отрезку [0, 1]. Нечеткой нейронной сетью обычно называют четкую нейронную сеть, которая построена на основе многослойной архитектуры с использованием «И», «ИЛИ» нейронов.

Рассмотрим следующие примеры элементарных нечетких нейронных сетей.

Нечеткий нейрон «И». Сигналы х,- и vv, в данном случае объединяются с помощью треугольной конормы:

а выход образуется с применением треугольной нормы (рис. 22):

Если принять

тогда нечеткий нейрон «И» реализует композицию min-max:

Структура гибридного нейрона «И»

Рис, 22 - Структура гибридного нейрона «И»

Нечеткий нейрон «ИЛИ». Сигналы и w, здесь объединяются с помощью треугольной нормы: pi = T[xiw.), / = 1,2,

а выход образуется с применением треугольной конормы (рис. 23):

Структура гибридного нейрона «ИЛИ»

Рис, 23 - Структура гибридного нейрона «ИЛИ»

Если принять Т = min, S = max, тогда нечеткий нейрон «ИЛИ» реализует композицию max-min: у = max (w, д х{, w2 д х2).

Нечеткая нейронная сеть как правило состоит из четырех слоев: слоя фазификации входных переменных, слоя агрегирования значений активации условия, слоя агрегирования нечетких правил и выходного слоя.

Нечеткая нейронная сеть представляет собой набор нечетких правил, которые описывают классы в имеющемся наборе исходных данных, и нечеткую систему вывода для их переработки с целью получения результата диагностики [12]. Фрагмент нечеткой нейронной сети представлен на рисунке 24.

Схема нечеткой нейронной сети

Рис. 24 - Схема нечеткой нейронной сети

На схеме показана нечеткая нейронная сеть с четырьмя входами (п = 4). Слои обозначены символами от L1 до L5. Элементы, обозначенные символом П (мультипликаторы), перемножают все входные сигналы, элементы, обозначенные символом ? (сумматоры) - суммируют их. Назначение слоев, следующее: первый слой - термы входных переменных; второй слой - антецеденты (посылки) нечетких правил; третий слой - нормализация степеней выполнения правил; четвертый слой - заключения правил; пятый слой - агрегирование результата, полученного по различным правилам. Входы сети в отдельный слой не выделяются.

Каждый элемент слоя 1 (L1) представляет один терм с функцией принадлежности. Входы сети соединены только со своими термами. Количество узлов первого слоя равно сумме мощностей терм-множеств входных переменных. Выходом узла является степень принадлежности значения входной переменной соответствующему нечеткому терму //^(*,)- Фактически, в этом слое оценивается степень принадлежности входных данных *. к соответствующим нечетким множествам Ак. Функциональная зависимость между входом и выходом в узлах этой сети определяется по формуле:

Ее параметры с, а и b будут модифицироваться в процессе обучения, что позволит улучшить подбор нечетких множеств. Факт физической интерпретации этих параметров позволяет получить хорошее начальное размещение функции принадлежности нечетких множеств, а также анализировать ее в процессе обучения.

Количество узлов слоя 2 (L2) равно ш. Каждый узел этого слоя соответствует одному нечеткому правилу. Узел второго слоя соединен с теми узлами первого слоя, которые формируют антецеденты соответствующего правила. Следовательно, каждый узел второго слоя может принимать от 1 до п входных сигналов. Выходом узла является степень выполнения правила (вес некоторого правила).

Количество элементов этого слоя равно количеству правил N. Каждый узел связан с предыдущим слоем таким образом, что узел слоя L2, соответствующий к-му правилу, соединен со всеми узлами слоя L1, соответствующими нечетким множествам суждений этого правила.

Каждый /-Й узел слоя 3 (L3) определяет отношение веса /-го правила к сумме весов всех правил:

Выходные сигналы 3-го слоя называются нормализованными весами.

Каждый узел слоя 4(L4) соединен с одним узлом третьего слоя, а также со всеми входами сети. Узел четвертого слоя рассчитывает вклад одного нечеткого правила в выход сети:

где со. - выходной сигнал 3-го слоя, {/?, ,#, ,/; } - набор параметров данного слоя (так называемые параметры вывода).

Слой 5 (L5) представляет собой реализацию блока дефазификации, реализующего зависимость.

Веса связей, доходящих до верхнего узла слоя L4 и обозначенные у, интерпретируются как центры функций принадлежности нечетких множеств Ак. Эти веса, также как и значения параметров х/, в слое L1, будут модифицироваться в процессе обучения. На выходе слоя L5 формируется «четкое» (дефазифицированное) выходное значение модуля управления у. Представленная на рисунке 24 структура имеет много общего с нейронными сетями она представляет собой многослойную сеть, основанную на идее нечеткого вывода. В отличие от «чистых» нейронных сетей, каждый слой в целом и отдельные составляющие его элементы, также, как и конфигурация связей, все параметры и веса имеют физическую интерпретацию. Это свойство оказывается необычайно важным, поскольку знания не распределяются по сети и могут быть легко локализованы и при необходимости откорректированы экспертом-наблюдателем.

Рассмотренные выше этапы нечеткого вывода могут быть реализованы неоднозначным образом, поскольку включают в себя отдельные параметры, которые должны быть фиксированы или специфицированы. Тем самым выбор конкретных вариантов параметров каждого из этапов определяет некоторый алгоритм, который реализует нечеткий вывод в системах правил нечетких продукций. Один из таких алгоритмов - алгоритм Сугено. Его основная особенность состоит в том, что заключения правил задаются линейной функцией от входов. Быстрые алгоритмы обучения и интерпретируемость накопленных знаний - эти факторы сделали сегодня нечеткие нейронные сети одним из самых перспективных и эффективных инструментов мягких вычислений. Наибольшее распространение в настоящее время получили архитектуры нечеткой нейронной сети вида ANFIS и TSK. Доказано, что такие сети являются универсальными аппроксиматорами.

 
Посмотреть оригинал
Если Вы заметили ошибку в тексте выделите слово и нажмите Shift + Enter
< Предыдущая   СОДЕРЖАНИЕ   Следующая >
 
Популярные страницы