Fuzzy decision

Введение, или что такое нечеткое мышление?

Проблема ИИ (искусственного интеллекта) преследует человечество испокон веков, от Галатеи, созданной Пигмалионом, до «Скайнета», побежденного Шварцнеггером-Терминатором. Как же отличить этот коварный ИИ от нормального человека? Ответ на этот вопрос пытался дать еще в 1950 году Алан Тьюринг в своей статье «Вычислительные машины и разум». Предложенное решение известно, как тест Тьюринга. Но 6 июня 2014 года виртуальный мальчик «Евгений Густман из Одессы» смог убедить беседовавших с ним людей в том, что выдаваемые компьютером ответы принадлежат человеку, а не машине. Почему же этот этап был преодолен через такой долгий срок? И почему же это случилось?
В отличие от компьютерной программы, человек (эксперт), при решении проблемы, обычно полагается на здравый смысл, используя неопределенные и двусмысленные термины. Например, эксперт может сказать: «хотя я немного подустал, но все же могу выполнить эту работу за некоторое время». При этом другие эксперты не испытывают затруднений с пониманием и толкованием этого заявления. А каково IT-специалисту с предоставлением компьютеру того же уровня понимания. Как можно представить в компьютере экспертные знания, которые используют неопределенные и двусмысленные термины? Можно ли вообще это сделать?
Инструментом для достижения этой целя является нечеткая логика. Нечеткая логика использует теорию нечетких множеств, то есть, множеств, которые калибруют неопределенность. Нечеткая логика основана на идее, что все понятия допускают градацию. Кипяток очень горячий, чай недостаточно крепкий, борщ немного недосолен, кондиционер недостаточно хорошо охлаждает. Такая градиентная шкала часто позволяет отличить элементы, принадлежащие некоторому классу от элементов, которые ему не принадлежат.
Классическая четкая логика использует резкие различия. Это как нарисовать линию, разделяющую два множества. Например, согласно шкале Бофорта, если ветер имеет скорость 10.7 м/сек, то он свежий, а если 10.8, то уже сильный.
Нечеткая логика отражает то, как люди думают, пытается моделировать наше чувство слов, наше принятие решений и наш здравый смысл. В результате, это приводит к построению новых, если можно так сказать, более человеческих интеллектуальных систем.
Нечеткая или многозначная логика была введена в 1930-х годах польским логиком и философом Яном Лукасевичем. Классическая логика работает только с двумя значениями 1 (истина) и 0 (ложь), Лукасевичем была введена логика, которая расширила диапазон значений истинности до всех действительных чисел в интервале между 0 и 1. Этот подход привел к неточным методам рассуждений, которые назывались «Теория возможностей».
В 1965 году Лотфи Заде, профессор и заведующий кафедрой электротехники Калифорнийского университета в Беркли опубликовал свой знаменитый труд «Нечеткие множества». Фактически, Заде вновь открыл размытость, осмыслил и исследовал это явление, переведя теорию возможностей в формальную систему математической логики и, что еще важнее, он ввел новую концепцию для применения понятий естественного языка. Эта новая логика для представления и манипулирование нечеткими терминами называется нечеткой логикой.
В отличие от двузначной классической логики, нечеткая логика многозначна. Она имеет дело со степенями соответствия и степенями правды. Нечеткая логика использует континуум логических значений между 0 (полностью ложным) и 1 (полностью верно). Вместо просто черного и белого, использует спектр цветов, принимая то, что понятия могут быть отчасти верным и частично ложным одновременно. На следующем рисунке проиллюстрирован диапазон значений четкой и нечеткой логики.

Правила нечеткого вывода

В 1973 году Лотфи Заде опубликовал свою вторую самую влиятельную статью (3. Zadeh L. Outline of a new approach to the analysis of complex systems and decision processes / L.Zadeh // IEEE Transactions on Systems, Man, and Cybernetics.— 1973 .— №3(1) .— C.28–44. ). В этом документе излагается новый подход к анализу сложных систем, в котором Заде предложил описать процедуру человеческого вывода в нечетких правилах.
Нечеткое правило может быть определено как условное выражение в форме:

ЕСЛИ \(x\) равно \(A\) ТОГДА \(y\) равно \(B\),

где \(x\) и \(y\) - лингвистические переменные, \(A\) и \(B\) - лингвистические величины, определенные нечеткими множествами на универсумах \(X\) и \(Y\) соответственно.
В общем случае рассуждение ЕСЛИ-ТОГДА включает две отдельные части: оценка правила (ЕСЛИ часть правила) и применение результата к последующему (ТОГДА часть правила). Классическое правило ЕСЛИ-ТОГДА использует двоичную логику, то есть, если первая часть верна, верна и вторая и наоборот. В нечетких системах, все правила в какой-то степени срабатывают, другими словами, они срабатывают частично.
В случае верности с некоторой степенью условия ЕСЛИ, получаем, что с той же степенью это будет верно и для условия ТОГДА.
Рассмотрим, например, два нечетких множества: «скорость ветра» и «облачность»:

0 1 5.5 10.8 17.8 32.7 м/сек 0 1 4 6 8 10 балл Монотонный выбор значений облачности (в баллах).

А как быть, если правило нечеткого вывода имеет несколько частей?
Например:

ЕСЛИ погода морозная И лежит снег ТОГДА будет лыжная прогулка.

ЕСЛИ погода хорошая ИЛИ приятная компания ТОГДА пикник удался.

Результатом каждого правила является нечеткое множество, но обычно нам нужно получить единственное число. Другими словами, мы хотим получить точное решение, а не нечеткое. Чтобы получить одно четкое решение для выходной переменной, нечеткая экспертная система вначале агрегирует все выходные нечеткие множества в одно выходное нечеткое множество, а затем собирает полученный нечеткий набор в одно число.
Наиболее часто используемым методом нечеткого вывода является так называемый метод Мамдани.
В 1975 году профессор Лондонского университета Эбрахим Мамдани построил одну из первых нечетких систем для управления комбинацией паровых двигателей и котлов (Mamdani E.H. An experiment in linguistic synthesis with a fuzzy logic controller / E.H.Mamdani, S.Assilian // International Journal of Man–Machine Studies .— 1975 .— №7(1) .— C.1–13.).
Процесс нечеткого вывода в стиле Мамдани выполняется в четыре этапа: фаззификация входных переменных, оценка правил, агрегация правил вывода и, наконец, дефаззификация , то есть, приведение к четкости.

Алгоритмы нечеткого вывода.

Пусть \(x, y\) – входные переменные, имеющие четкие значения \(x_0, y_0\) и \(z\) – выходная переменная.
Заданы функции принадлежности \(\mu_{A_1}, \mu_{A_2}, \mu_{B_1}, \mu_{B_2}, \mu_{C_1}, \mu_{C_2}\) и правила:

Если \(x\) есть \(A_1\) и \(y\) есть \(B_1\), ТО \(z\) есть \(C_1\),

Если \(x\) есть \(A_2\) и \(y\) есть \(B_2\), ТО \(z\) есть \(C_2\).

Алгоритм Mamdani. В системах типа Mamdani база знаний строится из нечетких высказываний вида «z есть α» с помощью связок «И», «ЕСЛИ-ТО». Этапы нечеткого вывода реализуются следующим образом:
  1. Фаззификация: находятся степени истинности для предпосылок каждого правила: \(\mu_{A_1}(x_0), \mu_{A_2}(x_0), \mu_{B_1)(x_0}, \mu_{B_2}(x_0)\).
  2. Вывод: находятся уровни отсечения для предпосылок каждого из правил с использованием операции минимум: \[ \alpha_1=\min\{\mu_{A_1}(x_0),\mu_{B_1}(y_0)\}, \alpha_2=\min\{\mu_{A_2}(x_0),\mu_{B_2}(y_0)\}. \] Затем находятся усеченные функции принадлежности: \[ \mu_{C_1'}(z)=\min\{\alpha_1,\mu_{C_1}(x_0)\}, \mu_{C_2'}(z)=\min\{\alpha_2,\mu_{C_2}(x_0)\}. \]
  3. Композиция: с использованием операции максимум производится объединение найденных усеченных функций, что приводит к получению итогового нечеткого подмножества для переменной выхода с функцией принадлежности: \[ \mu_\Sigma=\mu_C(z)=\max\{\mu_{C_1'},\mu_{C_2'}\}=\max\left\{\min\{\alpha_1,\mu_{C_1}(z)\},\min\{\alpha_2,\mu_{C_2}(z)\}\right\}. \]
  4. Приведение к четкости для получения \(z_0\) производится с использованием центра тяжести. \[ z_0=\frac{\int_{Min}^{Max}z\cdot \mu_\Sigma(z)dz}{\int_{Min}^{Max}\mu_\Sigma(z)dz}, \] где \(Min\) и \(Max\) — границы универсума нечетких переменных.


Алгоритм Mamdani.

Алгоритм Tsukamoto. Исходные данные и база знаний такие же, как и в алгоритме Mamdani, но предполагается, что функции \(\mu_{С_1}(z), \mu_{С_2}(z)\) являются монотонными.
Этапы нечеткого вывода:
  1. Фаззификация: находятся степени истинности для предпосылок каждого правила: \(\mu_{A_1}(x_0), \mu_{A_2}(x_0), \mu_{B_1}(y_0), \mu_{B_2}(y_0)\).
  2. Вывод: Находятся уровни отсечения для предпосылок каждого из правил с использованием операции минимум: \[ \alpha_1=\min\{\mu_{A_1}(x_0),\mu_{B_1}(y_0)\}, \alpha_2=\min\{\mu_{A_2}(x_0),\mu_{B_2}(y_0)\}. \]
  3. Затем находятся четкие значения z1 и z2 из уравнений \(\alpha_1=\mu_{C_1}(z), \alpha_2=\mu_{C_2}(z)\).
  4. Определяется четкое значение переменной вывода, как взвешенное среднее \(z_1\) и \(z_2\) \[ z_0=\frac{\alpha_1z_1+\alpha_2z_2}{\alpha_1+\alpha_2}. \]
В общем случае четкое значение \(z_0\) определяется с использованием центра тяжести.


Алгоритм Tsukamoto.

Алгоритм Sugeno. В алгоритме Sugeno база знаний строится из правил в следующей форме:

Если \(x\) есть \(A_1\) и \(y\) есть \(B_1\), ТО \(z_1=a_1x+b_1y\),

Если \(x\) есть \(A_2\) и \(y\) есть \(B_2\), ТО \(z_2=a_2x+b_2y\).

Этапы нечеткого вывода:
  1. Фаззификация: находятся степени истинности для предпосылок каждого правила: \(\mu_{A_1}(x_0), \mu_{A_2}(x_0), \mu_{B_1}(y_0), \mu_{B_2}(y_0)\).
  2. Вывод: Находятся уровни отсечения для предпосылок каждого из правил с использованием операции минимум: \(\alpha_1=\min\{\mu_{A_1}(x_0),\mu_{B_1}(y_0)\}\), \(\alpha_2=\min\{\mu_{A_2}(x_0),\mu_{B_2}(y_0)\}\).
  3. Находятся индивидуальные выходы правил: \(z^*_1=a_1x+b_1y\), \(z^*_2=a_2x+b_2y\).
  4. Определяется четкое значение переменной вывода: \[ z_0=\frac{\alpha_1z^*_1+\alpha_2z^*_2}{\alpha_1+\alpha_2}. \]


Алгоритм Sugeno.

Алгоритм Larsen. Вид базы знаний совпадает с видом базы знаний для алгоритма Mamdani.
  1. Нечеткость: находятся степени истинности для предпосылок каждого правила: \(\mu_{A_1}(x_0), \mu_{A_2}(x_0), \mu_{B_1}(y_0), \mu_{B_2}(y_0)\).
  2. Вывод: находятся уровни отсечения для предпосылок каждого из правил с использованием операции минимум: \(\alpha_1=\min\{\mu_{A_1}(x_0),\mu_{B_1}(y_0)\}\), \(\alpha_2=\min\{\mu_{A_2}(x_0),\mu_{B_2}(y_0)\}\).
  3. В алгоритме Larsen нечеткое подмножество переменной вывода для каждого правила находится с использованием оператора умножения по формуле: \(\mu_{C_1'}(z)=\alpha_1\cdot \mu_{C_1}(z), \mu_{C_2'}(z)=\alpha_2\cdot \mu_{C_2}(z).\)
  4. Композиция: с использованием операции максимум производится объединение найденных частных нечетких подмножеств. Находится итоговое нечеткое подмножество для переменной выхода с функцией принадлежности: \[ \mu_\Sigma(z)=\mu_C(z)=\max\{\mu_{C_1'}(z),\mu_{C_2'}(z)\}=\max\{\alpha_1\cdot \mu_{C_1}(z),\alpha_2\cdot \mu_{C_2}(z)\}. \]
  5. Приведение к четкости также производится методом центра тяжести.


Алгоритм Larsen.

Пример использования нечетких рассуждений.

Требуется оценить уровень риска, связанного с проектом разработки программного обеспечения. Заметим, что данные можно изменить и посмотреть как изменится результат. Будем считать, что есть возможность варьирования только двумя параметрами - объемом финансирования проекта и размером штатного расписания (пример отсюда и отсюда ).

Шаг 1

На первом этапе преобразуем четкий ввод в нечеткий. Поскольку у нас есть два входящих параметра, у будет, соответственно, и два четких значения. Первое значение - это размер штатного расписания проекта. Второе значение - объем финансирования проекта.
Предположим, что имеем следующие ресурсы - проект_финансирование = 35% и проект_штат= 60%. Мы можем получить нечеткие значения для этих четких значений, используя функции принадлежности соответствующих множеств. Наборы, определенные для проект_финансирование, являются недостаточными, критичными и адекватными. Множества, определенные для проект_штат, являются малыми и большими.
Таким образом, мы имеем следующие нечеткие значения для проект_финансирование:

\(\mu_{финансирование = недостаточно}\)(35) = 0,5;

\(\mu_{финансирование = критично}\) (35) = 0,2;

\(\mu_{финансирование = адекватно} \) (35) = 0,0.

Имеем следующее визуальное представление этой процедуры:

Нечеткое представление финансирования проекта.

Ниже приведены нечеткие значения для проект_штат.

\(\mu_{штат= малый}\) (60) = 0,1

\(\mu_{штат= большой}\) (60) = 0,7.

Ниже приведено визуальное представление этой процедуры:

Нечеткое представление штата сотрудников проекта.

Правила

Теперь, когда есть нечеткие значения, можно использовать нечеткие правила для получения конечного нечеткого значения. Правила заключаются в следующем: Правило 1 - Если финансирование является адекватным и штат мал, тогда риск низкий
\[ \mu_{A\cup B}(x)=\max\{\mu_A(x),\mu_B(x)\}, \]

\(\mu_{риск = низкий} = \max [\mu_{финансирование = адекватный}\) (35), \(\mu_{штат= малый}\) (60)\(] = \max[\) 0.0,0.1] = 0.1

Правило 2 - Если финансирование является критичным или штат- большим, то риск нормальный.
Конъюнкции в нечетких правилах вычисляются следующим образом \[ \mu_{A\cap B}(x)=\min\{\mu_A(x),\mu_B(x)\} \]

\(\mu_{риск = нормальный} = \min[\mu_{финансирование = критичное}\) (35), \(\mu_{штат= большой}\) (60)\(] = \min \){0.2, 0.7} = 0.2.

Правило 3 - Если финансирование недостаточно, тогда риск высокий

\(\mu_{риск = высокий}\) = 0.5.

Результаты оценки правила
Результат оценки правил показан ниже: \(\mu_{риск = низкий}\) (z) = 0.1

Оценка малости риска проекта.

\(\mu_{риск = нормально}\) (z) =0.2

Оценка нормального риска проекта.

\(\mu_{риск = высокий}\) (z) = 0.5

Оценка высокого риска проекта.

Мы выполняем объединение на всех масштабируемых функциях для получения конечного результата. Результат снова отображается зеленым цветом.

Оценка общего риска проекта.

Дефаззификация

Дефаззификация может быть выполнена несколькими различными способами. Наиболее популярным методом является метод центроида.
Метод центроида.
Этот метод состоит в вычислении центра тяжести для области под кривой. \[ C_0=\frac{\sum_{x=a}^b\mu_A(x)x}{\sum_{x=a}^b\mu_A(x)}. \] Тогда риски этого проекта в процентах равны

\[ COG=\frac{0*0.10+10*0.10+20*0.10+30*0.10+40*0.20+50*0.20+60*0.20+70*0.20+80*0.50+90*0.50+100*0.50} {0.10+0.10+0.10+0.10+0.20+0.20+0.20+0.20+0.50+0.50+0.50}=68.81% \]

Биссектриса.
Находится вертикальная линия, которая делит область на два субрегиона равной площади. Это иногда, но не всегда, совпадает с центроидной линией.
Среднее значение.
Предполагается, что плато при максимальном значении конечной функции принимает среднее значение.
Наименьшее значение максимального.
Предполагается, что плато при максимальном значении конечной функции принимает наименьшее из значений, которое оно охватывает.
Наибольшее значение максимального.
Предполагается, что плато при максимальном значении конечной функции принимает наибольшее из значений, которое оно охватывает.

Ранжирование.

Заметим, что достаточно часто требуется упорядочить имеющийся набор нечетких множеств, то есть ранжировать их. К примеру, для имеющего набора проектов требуется приписать каждому из них рейтинг . Как и в предыдущих случаях будем использовать оценку в виде трапецевидного нечёткого числа и треугольного, как частный случай.
Итак, после того, как каждый проект получил общую оценку в виде трапецевидного нечёткого числа, можно упорядочить проекты в соответствии с приписанным им рейтингом.


Трапецевидные и треугольные нечёткие числа.

Для сравнения нечётких чисел имеется несколько различных методов:
  1. Метод Чью-Парка. Фиксируется параметр w. Каждому трапецевидному числу \(A=(a_1,a_2,a_3,a_4)\) ставится в соответствие (чёткое) число \[ cp(A)=\frac{1}{4}(a_1+a_2+a_3+a_4)+\frac{w}{2}(a_2+a_3). \] Упорядочение производится по возрастанию величин cp(A).
  2. Метод Чанга. Трапецевидные числа \(A=(a_1,a_2,a_3,a_4)\) упорядочиваются по возрастанию величин \[ ch(A)=\frac{1}{4}(a_3^2+a_3a_4+a_4^2-a_1^2-a_1a_2-a_2^2). \]
  3. Метод Кауфмана-Гупты. Вычисляются три следующие величины: \[ kg_1(A)=\frac{1}{6}(a_1+2a_2+2a_3+a_4), kg_2(A)=\frac{1}{6}(a_3+a_4), kg_3(A)=\frac{1}{6}(a_4-a_1). \] Полагаем, что \(A \ge B\), если \(kg_1(A)>kg_1(B)\) или \(kg_1(A)=kg_1(B)\) и \(kg_2(A)>kg_2(B)\), или \(kg_1(A)=kg_1(B)\), \(kg_2(A)=kg_2(B)\) и \(kg_3(A)>kg_3(B)\).
  4. Метод Джейна. Метод задаёт порядок в наборе нечётких чисел \(A_1,A_2,...,A_n\). Пусть возможные значения чисел из данного набора лежат на промежутке от \(b_1\) до \(b_2\). Тогда нечёткое число \(B = (b_1,b_2,\infty,\infty)\) можно рассматривать как нечёткое множество «больших чисел». Для каждого \(A_i\) рассматривается степень, в которой число \(A_i\) является «большим»: \[ Pos(A_i\in B)=\max_x\min\{\mu_{A_i}(x),\mu_B(x)\}. \] Набор упорядочивается по возрастанию величин \(Pos(A_i \in B)\).
  5. Метод Дюбуа-Прада. Как и в предыдущем методе, рассматривается набор нечётких чисел \(A_1,A_2,...,A_n\). Каждому числу \(A_i\) отвечает его степень доминирования над остальными числами: \[ PD(A_i)=Pos\left(A_i\ge \max_{j\ne i}A_j\right)=\min_{j\ne i}\max_{x,y}\min\{\mu_{A_i}(x),\mu_{A_j}(x)\}. \] Числа упорядочиваются по возрастанию величин \(PD(A_i)\).
Рассмотренные методы сравнения в общем случае могут давать разные результаты.
Пример ранжирования проектов.
Пусть имеется три проекта, оцененные числами \(A_1 = (3,5,5,9) , A_2 = (3,7,7,8) , A_3 = (1,6,6,10).\) По методу Чью-Парка с параметром \(w = 1\) имеем:

cp(A1) = 10.5 < cp(A3) = 11.75 < cp(A2 ) = 13.25 .

Наилучшим является второй проект, далее следуют третий и первый проекты. Метод Чанга приводит к следующему результату

ch(A2 ) = 15 < ch(A1) = 17 < ch(A) = 25.5 ,

то есть второй проект оказывается наихудшим.
По методу Кауфмана-Гупты получаем:

kg1(A1) = 5.33 < kg1(A3) = 5.83 < kg1(A2) = 6.5 ,

что совпадает с результатом метода Чью-Парка.
В методе Джейна определим множество больших чисел как \(B = (0,10,\infty,\infty)\). Тогда \[ Pos(A_1 \in B) = 6.43 \lt Pos(A_3 \in B) = 7.14 \lt Pos(A_2 \in B) = 7.27. \] Порядок совпадает с порядком Чью-Парка.
Применение метода Дюбуа-Прада даёт следующие неравенства: \[ PD(A_1) = 0.75 \lt PD(A_3) = 0.875 \lt PD(A_2 ) = 1. \] Это приводит к следующему ранжируемому списку: « проект 1 < проект 3 < проект 2».

Выбор альтернатив с использованием правил нечеткого вывода

Рассмотрим метод многокритериального выбора альтернатив на основе композиционного правила агрегирования описаний альтернатив с информацией о предпочтениях в виде нечетких суждений .
Пусть \(U\)- множество элементов, \(А\)-его нечеткое подмножество, степень принадлежности элементов которого есть число из единичного интервала [0,1]. Подмножества \(А\) являются значениями лингвистической переменной \(Х\).
Пусть множество решений характеризуется набором критериев \(X_1,X_2,...,X_p\), то есть лингвистических переменных на базовых множествах \(U_1,U_2,...,U_p\) соответственно. Набор из нескольких критериев с соответствующими значениями характеризуют представления об удовлетворительности (приемлемости) решения. Переменная \(S\) «Удовлетворительность» также является лингвистической. Пример высказывания:

d1: «Если X1 = НИЗКАЯ и X2=ХОРОШЕЕ, то S=ВЫСОКАЯ»

В общем случае высказывание имеет вид

di: «Если X1=A1,i и X2=A2,i и ... Xp=Ap,i, то S=Bi».

Обозначим пересечение \(X_i=A_{1,i}\cap X_2=A_{2,i}\cap\ldots X_p=A_{p,i}\) через \(X=A_i\). Операции пересечения нечетких множеств соответствует нахождение минимума их функций принадлежности \[ \mu_{A_i}(v)=\min_{v\in V}\left\{\mu_{A_{i,1}}(u_1),\mu_{A_{i,2}}(u_2),...,\mu_{A_{i,p}}(u_p)\right\} \] где \(V=U_1\times U_2\times ...\times U_p \), \(v=(u_1,u_2,..., u_p)\), \(\mu_{A_{i,j}}(u_j)\) - значение принадлежности элемента \(u_j\) нечеткому множеству \(A_{i,j}\) . Тогда высказывание примет вид

di: «Если X=Ai, то S=Bi»

Обозначим базовое множество (U или V) через W. Тогда Ai - нечеткое подмножество W, в то время как Bi-нечеткое подмножество единичного интервала I.
Импликация («если…, то…») нечетких множеств выражается следующим образом \[ \mu_H(w,i)=\min_{w\in W}\{1,(1-\mu_A(w)+\mu_B(i))\}, \] где H- нечеткое подмножество на \(W\times I,w\in W, i\in I\). Аналогичным образом высказывания \(d_1,d_2,...,d_q\) преобразуются в множества \(H_1,H_2,...,H_q\). Их объединением является множество D: \[ D=H_1\cup H_2\cup ... \cup H_q \] и для каждого \((w,i)\in W\times I\) \[ \mu_D(w,i)=\min_{w\in W}\{\mu_{H_i},(w,i)\},i=1,2,...,q. \] Рассмотрим выбор альтернатив, каждая из которых описывается нечетким подмножеством C из W. Удовлетворительность альтернативы определяется на основе композиционного правила вывода \(G=C\circ D\), где G- нечеткое подмножество интервала I. Тогда \[ \mu_G(i)=\max_{w\in W}\left\{\min\{\mu_C(w),\mu_D(w,i)\}\right\}. \] Сопоставление альтернатив происходит на основе точечных оценок. Для нечеткого множества \(A\subset I\) определим \(\alpha\)-уровневое множество \(\alpha\in [0,1]\) \[ A_{\alpha}=\left\{x|\mu_A(x)\ge \alpha,x\in I\right\}. \] Для каждого \(A_{\alpha}\) можно вычислить среднее число элементов \(M(A_{\alpha})\):
  1. Для множества из n элементов \(M(A_{\alpha})=\frac{1}{n}\sum\{x_i|x_i\in A_\alpha\}\).
  2. Для \(A_{\alpha}=\{a\le x\le b\}\) \(M(A_{\alpha})=\frac{a+b}{2}. \)
  3. Для \(0\le a_1\le b_1\le a_2\le b_2\le ...\le a_n\le b_n\le 1\), \(A_\alpha=\bigcup_{i=1}^n\{a_i\le x\le b_i\}\) \[ M(A_\alpha)=\frac{\sum_{i=1}^n\frac{a_i+b_i}{2}(b_i-a_i)}{\sum_{i=1}^n(b_i-a_i)}. \]
Тогда точечное значение для множества \(A\) \[ F(A)=\frac{1}{\alpha_{\max}} \int_0^{\alpha_\max}M(A_\alpha)d\alpha, \] где \(\alpha_\max\)- значение, при котором А имеет максимум.
При выборе альтернатив, для каждой из них определяется удовлетворительность и вычисляется соответствующая точечная оценка, Лучшей считается альтернатива с наибольшим ее значением.

Ранжирование альтернатив на основе эвристического подхода.

Рассмотрим проблему упорядочивания альтернативы на основе композиции нечетких критериальных оценок и эвристических соображений в виде лингвистических оценок полезности.
Модель процесса принятия решения включает: оценки альтернатив, представления лица, принимающего решения, описание процесса принятия решения.
Каждую альтернативу можно описать с помощью критериев качества \( D_i,i=1,2,...,n\). Область определения представляется как декартово произведение n множеств \( D_i, D=D_1\times D_2\times D_3\times ...\times D_n\). Точка задается соответствующим набором из n значений \((d_1,d_2,...,d_n)\in D\), где \(d_)i\in D_i\) и обозначается \(d^{(n)}\).
Если значения критериев неточно определены (то есть подразумеваются нечеткими), то альтернатива \(А\) есть нечеткое подпространство \(D\) и представляется как декартово произведение нечетких множеств на \(D_i\): \(A=F(D_1)\times F(D_2)\times ...\times F(D_n)\), где \(F(D_i)\)-нечеткое подмножество \(D_i\).
Функция принадлежности \(\mu_A(d_i)\) находится в соответствии с обычным определением нечеткой композиции \(\\mu_A(d^{(n)})=\min_{i=1,...,n}\mu_A(d_i)), где \(\mu_A(d_i)\) - функция принадлежности оценки альтернативы по критерию \(D_i\).
Множество всех возможных альтернатив обозначается через \(\textbf{A}\) и является множеством нечетких подмножеств.
Элементы u универсального множества U выбираются в соответствии с некоторыми простыми правилами, например,

U={ВЫСОКАЯ, ДОСТАТОЧНО ВЫСОКАЯ, СРЕДНЯЯ, ДОСТАТОЧНО НИЗКАЯ, НИЗКАЯ}

Словарь может быть расширен введением модификаторов, таких как

ОЧЕНЬ, ВПОЛНЕ, БОЛЕЕ-МЕНЕЕ.

Полезность может быть интерпретирована как лингвистическая переменная, значения которой есть термы нечеткого множества, определенного на интервале [0,1]. Знание о полезности задается нечетким отношением Ф из \(D=\{d_i^{(n)}\}\) в \(U=\{u\}\) , являющимся нечетким множеством на декартовом произведении \(D\times U\). Ф характеризуется с помощью функции \(\mu_{\Phi}(d^{(n)},u)\), посредством которой каждой паре присваивается значение из интервала [0,1]. Отношение Ф обычно представляется в виде таблицы, дающей полезность различных точек из D.
Знание о полезности как нечетком отношении Ф дает возможность характеризовать альтернативу \(A\in\textbf{A}\) нечетким подмножеством \(V\in U\), где \(V=\textbf{A}\circ \Phi\) с помощью соотношения \(\mu_V(u)=\max\left\{\min\{\mu_\Phi(d^{(n)},u),\mu_A(u)\}\right\}\).
В соответствии с определением множества V каждая альтернатива \(\textbf{A}\) имеет более одного значения полезности, которые характеризуются разными степенями принадлежности. Ранжируя альтернативы, необходимо установить их упорядочивание, используя оценки ЛУЧШЕ, РАВНОЗНАЧНО, ХУЖЕ, а также выяснить насколько одно нечеткое множество лучше другого.
Иногда полезность с наибольшей степенью принадлежности может быть принята в качестве характерного представителя для сравнения альтернатив. Путем ранжирования альтернатив устанавливается полезность в виде предложения, составленного из элементов U. Оно выражает V лингвистически. Кроме того, V может быть выражено графически, что позволяет визуально сравнить альтернативы.

Выбор альтернатив с использованием нечеткой логики

Выбрать наиболее подходящего адвоката.

Критерий:

Данные

Оценка претендента по 10-балльной шкале.

Полезная литература. Книги.

  1. Advances in Fuzzy Decision Making Theory and Practice / I.Skalna, J.Duda, B.Rębiasz та ін.; Editor: Kacprzyk J. .— Springer, 2015 .— 162 p.
  2. Carlsson C. Fuzzy Logic in Management / C.Carlsson, M.Fedrizzi, R.Fuller .— Springer, 2004 .— 289 p.
  3. Chi Z. Fuzzy algorithms: with Application to Image Processing and Pattern Recognition / Z.Chi, H.Yan, T.Pharm .— World Scientific, 1996 .— 225 p.
  4. Fuzzy models and algorithms for pattern recognition and image processing / J.C.Bezdek, J.Keller, R.Krisnapuram, N.Pal .— Springer, 2005 .— 785 p.
  5. Kahraman C. Fuzzy multi-criteria decision making. Theory and Applications with Recent Developments / C.Kahraman .— Springer, 2008 .— 591 p.
  6. Kaufmann M. Inductive Fuzzy Classification in Marketing Analytics / M.Kaufmann .— Springer, 2012 .— 143 p.
  7. Liao H. Hesitant Fuzzy Decision Making Methodologies and Applications / H.Liao, Z.Xu .— Singapore: Springer, 2017 .— 285 p.
  8. Negnevitsky M. Artificial Intelligence.A Guide to Intelligent Systems. Second Edition / M.Negnevitsky .— Addison-Wesley, 2002 .— 414 p.
  9. Siler W. Fuzzy expert systems and fuzzy reasoning / W.Siler, J.Buckley .— Hoboken, New Jersey: Wiley & Sons, Inc, 2005 .— 422 p.
  10. Sousa J.M. Fuzzy dicision making in modeling and control / J.M.Sousa, U.Kaymak .— Danvers, USA: World Scientific Publishing Co, 2002 .— 355 p.
  11. Борисов А.Н. Принятие решений на основе нечетких моделей. Примеры использования / А.Н.Борисов, О.А.Крумберг, И.П.Федоров .— Рига: Зинатне, 1990 .— 184 с.
  12. Зак Ю. Принятие решений в условиях нечетких и размытых данных: Fuzzy технологии / Ю.Зак .— М: Либроком, 2013 .— 352 с.
  13. Нечеткие множества и теория возможностей. Последние достижения / под ред. Р. Ягера М.: Радио и связь, 1986.

Полезная литература. Статьи.

  1. A New Method for Ordering LR Fuzzy Number / S.H.Nasseri, F.Taleshian, Z.Alizadeh, J.Vahidi // The Journal of Mathematics and Computer Science .— 2012 .— №Vol. 4 No.3 .— .283 - 294.
  2. Baas S. Rating and Ranking of Multiple-Aspect Alternatives Using Fuzzy Sets / S.Baas, H.Kwakernaak // Automatica .— 1977 .— №Vol. 13 .— P.47-58.
  3. Deng H. Simulation-Based Evaluation of efuzzification-Based Approaches to uzzy Multiattribute Decision Making / H.Deng, C.Yeh // IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS—PART A: SYSTEMS AND HUMANS .— 2006 .— №VOL. 36, NO. 5 .— pp.968-977.
  4. Efstathiou J. Multiattribute Decisionmaking Using a Fuzzy Heuristic Approach / J.Efstathiou, V.Rajcovich // IEEE Transactions on Systems, Man and Cybernetics .— 1979 .— №6 .— C.326-333 .— Режим доступа: https://www.researchgate.net/ profile/Vladislav_Rajkovic/ publication/3116619_Multiattribute_Decisionmaking_Using_a_Fuzzy_Heuristic_Approach/links/54b7f3c20cf269d8cbf5b8e7.pdf
  5. http://petro.tanrei.ca/fuzzylogic/index.html
  6. Li D. A DIFFERENCE-INDEX BASED RANKING METHOD OF TRAPEZOIDAL INTUITIONISTIC FUZZY NUMBERS AND APPLICATION TO MULTIATTRIBUTE DECISION MAKING / D.Li, J.Yang // Mathematical and Computational Applications .— 2015 .— №Vol. 20, No. 1 .— p.25-38.
  7. Olaru C. A complete fuzzy decision tree technique / C.Olaru, L.Wehenkel // Fuzzy Sets and Systems .— 2003 .— №138 .— P.221–254.
  8. TONG R. Linguistic Approach to Decisionmaking with Fuzzy Sets / R.TONG, P.BONISSONE // IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS .— 1980 .— №NO. 1 .— pp.716-723.

Вопрос-ответ.

Задать вопрос: