УДК 519.68 (075.8)

СРАВНЕНИЕ АЛГОРИТМОВ МАМДАНИ И СУГЭНО В ЗАДАЧЕ

АППРОКСИМАЦИИ ФУНКЦИИ

© 2001 г. В. В. Круглов

В статье на примере задачи аппроксимации функции проведено сравнение двух наиболее распространенных алгоритмов нечеткого вывода - Мамдани (Mamdani) и Сугэно (Sugeno).Установлено определенное преимущество алгоритма Сугэно - в плане точности и простоты реализации. Показано функциональное сходство данного алгоритма с обобщенно-регрессионной искусственной нейронной сетью (GRNN).

Среди других алгоритмов нечеткого вывода, пожалуй, наиболее известными и популярными являются алгоритмы Мамдани (Mamdani) и Сугэно (Sugeno). Рассмотрим данные алгоритмы применительно к задаче аппроксимации непрерывной функции одной переменной.

Алгоритм Мамдани. Отметим вначале, что используемый в различного рода экспертных и управляющих системах механизм нечетких выводов в своей основе имеет базу знаний, формируемую специалистами предметной области в виде совокупности нечетких предикатных правил вида:

П1: если x есть A1, тогда z есть B1,

П2: если x есть A2, тогда z есть B2,

. . . . . . . . . .

Пn: если x есть An, тогда z есть Bn,

где x - входная переменная (имя для известных значений данных), z - переменная вывода (имя для значения данных, которое будет вычислено); Аi и Вi - нечеткие множества, определенные соответственно на X и Z с помощью функций принадлежности и (z).

Пример подобного правила:

если x - низко, то z - высоко.

Механизм нечеткого вывода при аппроксимации функции z(x) можно представить в виде:

Предпосылка:

П1: если x есть A1, тогда z есть B1,

П2: если x есть A2, тогда z есть B2,

. . . . . . . . . .

Пn: если x есть An, тогда z есть Bn.

Факт: x есть A

---------------------------------------------

Следствие: z есть B

В рассматриваемой ситуации данный вывод в форме алгоритма Мамдани математически может быть описан следующим образом:

1. Введение нечеткости (fuzzification): для заданного (четкого) значения аргумента x = x0 находятся степени истинности для предпосылок каждого правила ai = (x0).

2. Нечеткий вывод по каждому правилу: находятся "усеченные" функции принадлежности для переменной вывода:

= (ai, ).

3. Композиция: с использование операции МАКСИМУМ (max) производится объединение найденных усеченных функций, что приводит к получению итогового нечеткого подмножества для переменной вывода с функцией принадлежности

(z) = = [].

4. Наконец, приведение к четкости (defuzzification) - для нахождения z0 = F(x0) - обычно проводится центроидным методом: четкое значение выходной переменной определяется как центр тяжести для кривой , т.е.

,

где W - область определения .

Алгоритм Сугэно (0-го порядка). Исходный набор правил представляется в виде

Пi: если x есть Ai, тогда z есть zi, i = 1,2,…,n,

где zi = z(xi).

Алгоритм состоит всего из двух этапов. Первый этап идентичен первому этапу алгоритма Мамдани. На втором этапе находится (четкое) значение переменной вывода:

.

Возможность использования аппарата нечеткой логики для задач аппроксимации базируется на следующих результатах.

1. В 1992 г. Ванг (Wang) показал, что нечеткая система, использующая набор правил

Пi: если xi есть Ai и yi есть Bi, тогда zi есть Ci, i = 1,2,…,n

при

1) гауссовских функциях принадлежности

, , ,

2) композиции в виде произведения

[Ai(x) and Bi(y)] = Ai(x)Bi(y),

3) импликации в форме (Larsen)

[Ai(x) and Bi(y)]®Ci(z) =Ai(x)Bi(y)Ci(z),

4) центроидном методе приведения к четкости

,

где ci - центры Ci(z), является универсальным аппроксиматором, т.е. может аппроксимировать любую непрерывную функцию на компакте U с произвольной точностью (естественно, при ).

Иначе говоря, Ванг доказал теорему: для каждой вещественной непрерывной функции F(X), заданной на компакте U и для произвольного e>0 существует нечеткая экспертная система, формирующая выходную функцию (X) такую, что

,

где - символ принятого расстояния между функциями.

2. В 1995 году Кастро (Castro) показал, что логический контроллер Мамдани при

1) симметричных треугольных функциях принадлежности:




2) композиции с использованием операции min:

[Ai(x) and Bi(y)] = min{Ai(x),Bi(y)},

3) импликации в форме Мамдани и центроидного метода приведения к четкости

,

также является универсальным аппроксиматором.

Сравнение описанных алгоритмов выполнялось при следующих условиях:

· аппроксимации функции проводилась на отрезке [-1, 1];

· аппроксимируемая функция задавалась набором значений (xi, zi), i = 1,2,…,n, при этом точки zi располагались эквидестантно;

· функции принадлежности имели вид функций Гаусса, т.е. (x) =j((x-xi)/a), (z) = j((z-zi)/b), где j(·) - функция Гаусса, j(s/s) = exp(-s2/2s2), s - параметр функции (соответственно, a или b).

· количество правил n задавалось a priori;

· значения параметров a и b варьировались для получения наилучшего качества аппроксимации при заданном n.

Реализация алгоритмов и соответствующие вычислительные эксперименты проводилась с помощью системы MathCAD 2000.

Некоторые результаты при n = 9, a = 0.1, b = 0.3 приведены в табл. 1 и 2.

Таблица 1. Результаты аппроксимации для функции F(x) = x2

i

1

2

3

4

5

6

7

8

9

xi

-1

-0.75

-0.5

-0.25

0

0.25

0.5

0.75

1

zi

1.000

0.563

0.250

0.063

0

0.063

0.25

0.563

1.000

Оценка по алгоритму Мамдани



0.973



0.570



0.257



0.070



0



0.070



0.257



0.570



0.973

Оценка по алгоритму Сугэно



0.982



0.568



0.255



0.068



0



0.068



0.255



0.568



0.982

Таблица 2. Результаты аппроксимации для функции F(x) = x3

i

1

2

3

4

5

6

7

8

9

xi

-1

-0.75

-0.5

-0.25

0

0.25

0.5

0.75

1

zi

-1.000

-0.422

-0.125

-0.016

0

0.016

0.125

0.422

1.000

Оценка по алгоритму Мамдани



-0.962



-0.441



-0.136



-0.021



0



0.021



0.136



0.441



0.962

Оценка по алгоритму Сугэно



-0.976



-0.433



-0.133



-0.019



0



0.019



0.133



0.433



0.976

Приведенные и другие аналогичные результаты (полученные для большого числа вариантов) позволяют сделать выводы:

1) при прочих равных условиях и при оптимальных параметрах a и b погрешность аппроксимации с применением алгоритма Сугэно несколько меньше, чем с применением алгоритма Мамдани;

2) алгоритм Сугэно с вычислительной точки зрения реализуется значительно проще, чем алгоритм Мамдани, а время счета для него меньше, чем для алгоритма Мамдани в 50-100 раз;

3) общий вывод: если нет каких-либо особенных доводов в пользу алгоритма Мамдани, то лучше использовать не его, а алгоритм Сугэно.

Данные выводы, разумеется, носят предварительный характер и нуждаются в более корректном подтверждении (для функций многих переменных и т.п.).

В заключение приведем еще один результат, устанавливающий связь между алгоритмом Сугэно, так называемой обобщенно-регрессионной нейронной сетью (GRNN) и непараметрической оценкой регрессии Надарая-Ватсона [2].

Указанная сеть предназначена для решения задач регрессии (аппроксимации), при этом ее выход формируется как взвешенное среднее выходов по всем обучающим наблюдениям:

, (1)

где Xk, yk - точки обучающей выборки (X - в общем случае векторный аргумент); j(·) - отмеченная функция Гаусса.

Поясним данную формулу и название сети.

Предположим, что элементы обучающей выборки - случайные величины, с совместной плотностью вероятности p2(X,y), при этом, как известно, условное математическое ожидание M(y/X) называется регрессией (обобщенной регрессией) и определяется соотношением

, (2)

где - условная плотность вероятности y по X, - безусловная плотность вероятности случайной величины X.

Примем в последнем выражении аппроксимации:

, ,

где d(·) - обозначение дельта-функции Дирака.

Подстановка данных аппроксимаций в (2) дает:

.

Изменение порядка выполнения операций интегрирования и суммирования (здесь это допустимо и корректно) и использование, далее, свойств дельта-функции позволяет записать:

.

Аппроксимация теперь дельта-функции функцией Гаусса приводит к выше представленному выражению для выхода обобщенно-регрессионной нейронной сети; приведенный вывод собственно и поясняет ее название.

Но, если в формуле (1) принять обозначения zk = yk и ak = j((X - Xk)/s), то функционирование такой сети формально можно считать подобным функционированию системы, реализующей приведенный алгоритм Сугэно 0-го порядка (упрощенный алгоритм нечеткого вывода [1]), при этом величины ak в данном случае - степени "истинности" продукционных правил при заданных (гауссовых) функциях принадлежности j(·) и значении переменной входа, равной Xk.

Более того, выражение (1), описывающее, как установлено, выход сети GRNN и алгоритма нечеткого вывода Сугэно, полностью совпадает с непараметрической оценкой регрессии, известной как оценка Надарая-Ватсона, для которой доказана следующая теорема о сходимости [2].

Теорема. Оценка, определяемая формулой (1), если j(·) - функция Гаусса, при выполнении условий

N®Ґ, sN®0, N®0

где sN - параметр функции Гаусса, в данном случае зависящий от объема обучающей выборки, m - размерность вектора X,

сходится к F(X) с вероятностью 1.

Приведенный результат является теоретическим обоснованием алгоритма Сугэно как универсального аппроксиматора.

ЛИТЕРАТУРА

1. Круглов В. В., Борисов В.В. Искусственные нейронные сети. Теория и практика. - М.: Радио и связь, 2000.

2. Катковник В. Я. Непараметрическая идентификация и сглаживание данных: метод локальной аппроксимации. - М.: Наука, 1985.

COMPARISON OF ALGORITHMS MAMDANI AND SUGENO IN A TASK APPROXIMATIONS OF FUNCTION

V.V. Kruglov

In the article on the example of a task of approximation of function conducted comparison of two the most wide-spread algorithms of fuzzy conclusion - Mamdani and Sugeno. Installed the certain advantage of algorithm Sugeno - in the plan of accuracy and simplicity of realization. The functional similarity of the given algorithm with general regression artificial neural network (GRNN) is shown.

Кафедра Управления и информатики

Филиал Московского энергетического института

(Технического университета) в г. Смоленске

Поступила в редакцию 26.01.2001.