Нечеткие искусственные нейронные сети получили свое название в силу того, что для аппроксимации зависимости выходного сигнала от входного вектора в них используются выражения, заимствованные из нечетких систем (в частности, из систем Мамдани-Заде и Такаги-Сугено-Канга), оперирующих нечеткими множествами. Теоретически доказано, что эти выражения позволяют с произвольной точностью аппроксимировать любую непрерывную нелинейную функцию многих переменных суммой функций (называемых нечеткими) одной переменной.
Сеть Такаги-Сугено-Канга
В сети Такаги-Сугено-Канга (сокращенно, TSK) выходной сигнал рассчитывается с помощью выражения

где -ый полиномиальный компонент аппроксимации.
Веса компонентов рассчитываются по следующей формуле (с использованием рациональной формы функции Гаусса)

Приведенным выражениям соответствует пятислойная нейронная сеть, структурная схема которой представлена на рис. 1.
Рис. 1.  Структурная схема сети Такаги-Сугено-Канга
Первый слой содержит узлов, каждый из которых реализует расчет функции Гаусса с параметрами , и . С точки зрения нечетких систем это слой фуззификации входных переменных. Слой называется параметрическим, поскольку в процессе обучения сети подбору подлежат параметры этого слоя.
Второй слой параметров не содержит. С точки зрения нечетких систем это слой агрегирования левых частей продукций.
Третий слой — генератор полиномиальных функций TSK и их умножитель на весовой коэффициент . Это параметрический слой, в котором в процессе обучения сети адаптации подвергаются коэффициенты , . Общее количество коэффициентов в сети равно .
Четвертый слой составляют два нейрона-сумматора. Первый рассчитывает взвешенную сумму сигналов , а второй — сумму весов . Это непараметрический слой.
Последний, пятый, слой осуществляет нормализацию весов. Это также непараметрический слой.
Из описания сети TSK следует, что она содержит два параметрических слоя (первый и третий), параметры которых подлежат подбору в процессе обучения. Параметры первого слоя будем называть нелинейными, так как они относятся к нелинейной функции, а параметры третьего слоя — линейными.
Общее количество параметров (линейных и нелинейных) сети TSK равно

Во многих практических приложениях это чрезмерная величина, поэтому часто для входных переменных используют ограниченный набор функций , что уменьшает количество нелинейных параметров.
Сеть Ванга-Менделя
В сети Ванга-Менделя выходной сигнал рассчитывается с помощью выражения

где — весовой коэффициент (с точки зрения нечетких систем это центр функции принадлежности правой части продукции), — функция Гаусса (в экспоненциальном или рациональном виде) с параметрами центра , ширины и формы (с точки зрения нечетких систем — функция принадлежности к нечеткому множеству).
Легко заметить, что выражение для в сети Ванга-Менделя является частным случаем аналогичного выражения в сети TSK, если в последней принять . Поэтому сеть Ванга-Менделя проще и имеет следующую трехслойную структуру (см. рис. 2).
Рис. 2.  Структурная схема сети Ванга-Менделя
В данной сети параметрическими являются первый и третий слои. Первый содержит нелинейных параметров функции Гаусса, а третий — линейных параметров .
Нечеткие нейронные сети (как Ванга-Менделя, так и TSK) могут быть обобщены на случай многих выходных переменных. Их обучение, так же как и классических сетей, может проводиться как с учителем, так и без оного. Обучение с учителем основано на минимизации целевой функции, определяемой с использованием эвклидовой нормы

Обучение без учителя основано на самоорганизации сети, обеспечивающей кластеризацию входных данных.
Гибридный алгоритм обучения
Данный алгоритм применим к обеим описанным выше структурам, но рассмотрим его касательно сетей TSK, как более общих. Гибридный алгоритм обучения нечетких сетей можно считать вариантом гибридного алгоритма обучения радиальных сетей.
Алгоритм реализуется чередованием двух этапов:
  1. при зафиксиронных значениях нелинейных параметров , и первого слоя нейронов отыскиваются значения линейных параметров третьего слоя сети;
  2. при зафиксиронных значениях линейных параметров третьего слоя уточняются нелинейные параметры , и первого слоя сети.
На первом этапе обучения нелинейные параметры фиксированы. Выходной сигнал определяется как

где

Для обучающих выборок , , получаем систему линейных уравнений

где — вектор весов третьего слоя сети, а — вектор ожидаемых значений, составленный из всех обучающих выборок. Матрица представлена ниже:

Количество строк матрицы значительно больше количества ее столбцов . Решение этой системы линейных алгебраических уравнений может быть получено за один шаг следующим образом:

где — псевдоинверсия матрицы .
На втором этапе фиксируются значения коэффициентов полиномов третьего слоя и осуществляется уточнение (обычно многократное) коэффициентов функции Гаусса для первого слоя сети стандартным методом градиента:



где — номер очередного цикла обучения (в режиме "онлайн" он совпадает с номером обучающей выборки). С технической точки зрения получение аналитических выражений для производных целевой функции по нелинейным параметрам проблем не представляет. Однако, здесь в силу громоздкости эти выражения не приводятся.
Поскольку в череде этапов этап уточнения нелинейных параметров функции Гаусса имеет много меньшую скорость сходимости, то в ходе обучения реализацию этапа 1, как правило, сопровождает реализация нескольких этапов 2.