夹逼对抗解释结构模型(SAISM)即TOPSIS-AISM联用模型


论文写作或者计算需要帮助可发邮件到 hwstu # sohu.com 把 #替换成@,请说清来意,不必拐弯抹角,浪费相互之间的时间。

TOPSIS-AISM联用常用模式

TOPSIS-AISM联用简单版 TOPSIS-AISM联用高级版 TOPSIS-AISM联用完美显示降维过程版 TOPSIS-AISM联用完美显示降维过程版

TOPSIS-AISM联用流程图及说明


  TOPSIS-AISM联用示意


  TOPSIS方法说明

  流程图中纵向的过程即为TOPSIS方法的流程

  TOPSIS简介

  TOPSIS (Technique for Order Preference by Similarity to an Ideal Solution )法是C.L.Hwang和K.Yoon于1981年首次提出,TOPSIS法根据有限个评价对象与理想化目标的接近程度进行排序的方法,是在现有的对象中进行相对优劣的评价。TOPSIS法是一种逼近于理想解的排序法,该方法只要求各效用函数具有单调递增(或递减)性就行。TOPSIS法是多目标决策分析中一种常用的有效方法,又称为优劣解距离法。该方法又被称为“双基点法”

  TOPSIS重要基本概念与原理

  “正理想解”和“负理想解”是TOPSIS法的最基本的概念。

  离正理想点(最好的解、最佳点、最优解、最大极值点)的距离越远,效果最差,即为负向指标。因为其数值越大越差,数值越小越牛逼。

  离负理想点(最差的解、最差点、最劣解、最差极值点)的距离越远,效果最好,即为正向指标。因为其数值越小越牛逼,数值越大越差。

  贴近度、相似度是TOPSIS法的另外一个重要概念。

  越贴近正理想点,即数值越大,效果最大,即为正向指标。

  越贴近负理想点,即数值越大,效果最差,即为为向指标。


原始矩阵$O $规范化得到规范化矩阵$ N $的问题。


1、原始矩阵 $ O=[ o_{ij}]_{n \times m}$的特点


  第一、每一列(指标、维度、属性)的性质为如下四大类

  $$\begin{array} {|c|c|c|c|} \hline {类别名称}& {特点} \\ \hline \color{red}{正向指标} &\color{blue}{数值越大越好,数值越小越差。} \\ \hline \color{red}{负向指标} &\color{blue}{数值越大越差,数值越小越好。} \\ \hline \color{red}{振荡性指标} &\color{blue}{数值距离某区段越小越好,距离某区段越大越差。}\\ \hline \color{red}{周期性指标} &\color{blue}{诸如周期性函数 如 sin(2x)} \\ \hline \end{array} $$

  对于振荡性指标与周期性指标,需要先进行转化,转化成正向指标或者负向指标进行处理这样才能保证每一列有严格的可比性。

  第二、每一列(指标、维度、属性)都转化成数值的特征,每一列都是同一量纲。其中描述性的比较需要转化成数值型的比较

  无量纲化式特别注意:为非数值型的属性,则需要转化成数值型的数据进行处理。

  如描述性的属性,即非正规(Non-normal)模糊数,又称为一般性模糊数 (Generalized Fuzzy Numbers)可转化成五分制、十分制、百分制或者特定的数值。该数值可以通过特定的模糊运算进行转化。

  其中五分制是最常见的模糊数值的转化。

$$\begin{array} {|c|c|c|c|} \hline {模糊值} &{5分制}& {表述一}& {表述二} \\ \hline 0.2&1 &\color{red}{非常傻逼} &\color{blue}{垃圾} \\ \hline 0.4&2 &\color{red}{真傻逼} &\color{blue}{有点挫} \\ \hline 0.6&3 &\color{red}{恩} &\color{blue}{还行}\\ \hline 0.8&4 &\color{red}{有点牛逼} &\color{blue}{好} \\ \hline 0.99&5 &\color{red}{真TMD牛逼} &\color{blue}{哇塞} \\ \hline \end{array} $$

  第三、原始矩阵的预处理——在进行规范化之前,原始矩阵的每列必须是正向指标,或者负向指标。

  设某物种最适合的生长的酸碱环境为6.3-7.3区间,偏离此区间成线性的危害。酸碱度分别为8.2,7.1,6.9,5.3,6.1对该物种的危害可进行如下换算。

  $$ \begin{array} {|c|c|c|c|} \hline {PH值} & {计算过程} & {PH值对该生物的危害} \\ \hline {8.2} & \color{red}{8.2-7.3} &\color{blue}{0.9} \\ \hline {7.1} & \color{red}{在区间内为0} &\color{blue}{0} \\ \hline {6.9} &\color{red}{在区间内为0} &\color{blue}{0}\\ \hline {5.3} & \color{red}{6.3-5.3} &\color{blue}{1} \\ \hline {6.1} & \color{red}{6.3-6.1} &\color{blue}{0.2} \\ \hline \end{array} $$

  对于上面的震荡类区间数,周期性数值,一般要转化成正向指标或者负向指标两类


2、无量纲化、规范化、归一化的特点


  第一、无量纲化、规范化、归一化之间的关系

  无量纲化(nondimensionalize 或者dimensionless)是指通过一个合适的变量替代,将一个涉及物理量的方程的部分或全部的单位移除,以求简化实验或者计算的目的,是科学研究中一种重要的处理思想。

  无量纲化方法选择的标准:

  ① 客观性。无量纲化所选择的转化公式要能够客观地反映指标实际值与指标评价值之间的对应关系。要做到客观性原则,需要评价专家对被评价对象的历史信息做出深入彻底的分析和比较,找出事物发展变化的转折点,才能够确定合适的无量纲化方法。

  ② 可行性。即所选择的无量纲化方法要确保转化的可行性各种方法各有特点,各有千秋,应用时应当加以注意。

  ③ 可操作性。即要确保所选方法具有简便易用的特点,并不是所有的非线性无量纲化方法都比线性无量纲化方法更加精确。评价不是绝对的度量,在不影响被评价对象在评价中的影响程度的前提下,可以使用更为简便的线性无量纲化方法代替曲线关系。

  无量纲化、规范化、归一化是包含关系。无量纲化的概念最广

  归一化方法是指,经过归一化计算后,得到的矩阵,矩阵值都在[0,1]之间。

  第二、常见的六大类归一化方法及注意事项

$$\begin{array} {|c|c|c|c|} \hline {名称} & {正向指标公式} & {负向指标公式} & {说明} \\ \hline 极差法 & n_{ij} = \frac{{o_{ij}-min(o_{j})}}{{max(o_{j})-min(o_{j})}} & n_{ij} = \frac{max(o_{j})-{o_{ij}}}{{max(o_{j})-min(o_{j})}} & \color{red}{最常用} \\ \hline 欧式距离法 & n_{ij} = \frac {o_{ij}} { \sqrt{ {\sum \limits_{i=1}^{n}{o_{ij}^2}} } }= \frac {o_{ij}} { ( {\sum \limits_{i=1}^{n}{o_{ij}^2}} )^{\frac 1 2} } & n_{ij} = 1- \frac {o_{ij}} { \sqrt{ {\sum \limits_{i=1}^{n}{o_{ij}^2}} } }= 1- \frac {o_{ij}} { ( {\sum \limits_{i=1}^{n}{o_{ij}^2}} )^{\frac 1 2} } & \color{red}{ 每一列数据之间差距不宜过大} \\ \hline 均值标准化(Z-score) & \frac{x-\mu }{\sigma } & \frac{\mu-x }{\sigma } & \color{red}{此方法并非归一化方法,需特殊处理} \\ \hline 反三角函数 & \frac{2 \times atan(o_{ij}) }{ \pi} & 1-\frac{2 \times atan(o_{ij}) }{ \pi} & \color{red}{出现零值需要额外处理} \\ \hline 对数压缩数据法 & n_{ij} = \frac{lg({o_{ij}) }}{{ lg (max(o_{j}))}} & n_{ij} = 1- \frac{lg({o_{ij}) }}{{ lg (max(o_{j}))}} & \color{red}{出现零值需要额外处理} \\ \hline sigmoid函数(Logistic函数) & n_{ij} = \frac{1} {1+{e}^{-o_{ij}} } & n_{ij} = 1-\frac{1} {1+{e}^{-o_{ij}} } & \color{red}{机器学习、神经网络等基本用这个} \\ \hline \end{array}$$

  选择归一化方式的时候,一定要对原始矩阵进行预处理。最核心的是每一列的属性一定要是正向指标或者负向指标。每一列数据之间的差异不会出现数量级的差异的时候,一般用极差法来进行归一化。


3、规一化矩阵的特点


  第一、归一化矩阵$N$中的指标都是正向指标

  第二、采用极差法得到的归一化矩阵$N$中每一列中的最大值为1,最小值为0。


$N \Longrightarrow \{D^+ , D^- \} $带权值的距离公式


  带权重的距离公式是从规范化矩阵到距离矩阵的核心内容。此处分为求权重的方法与距离公式两个部分。

1、求权重的方法


  $$ \begin{array} {|c|c|c|c|} \hline {中文名称} & {英文简写} & {简要说明} \\ \hline \color{blue}{变异系数法} & \color{blue}{COV} & \color{blue}{客观} \\ \hline \color{blue}{复相关系数} & \color{blue}{MCC} & \color{blue}{客观} \\ \hline \color{blue}{CRITIC方法} & \color{blue}{CRITIC} & \color{blue}{客观} \\ \hline \color{blue}{熵权法} & \color{blue}{EWM} & \color{blue}{客观} \\ \hline \color{blue}{反熵权法} & \color{blue}{Anti-EWM} & \color{blue}{客观} \\ \hline \color{blue}{主成分分析} & \color{blue}{PCA} & \color{blue}{客观} \\ \hline \color{blue}{因子分析权数法} & \color{blue}{FAM} & \color{blue}{客观} \\ \hline \color{blue}{层次分析法} & \color{blue}{AHP} & \color{red}{主观} \\ \hline \color{blue}{网络分析法} & \color{blue}{ANP} & \color{red}{主观} \\ \hline \color{blue}{决策与实验室方法} & \color{blue}{DEMATEL} & \color{red}{主观} \\ \hline \color{blue}{决策与实验室-网络分析联用方法} & \color{blue}{D-ANP} & \color{red}{主观} \\ \hline \end{array} $$

  通常来说采用TOPSIS方法采用的是客观法,因为客观法可以利用当前的数据直接求出权重,计算上非常方便。常见的客观赋权法如下:

  ※变异系数(Coefficient of variation)变异系数又称“标准差率”,是衡量资料中各观测值变异程度的另一个统计量。当进行两个或多个资料变异程度的比较时,如果度量单位与平均数相同,可以直接利用标准差来比较。如果单位和(或)平均数不同时,比较其变异程度就不能采用标准差,而需采用标准差与平均数的比值(相对值)来比较。这是一个常用的方法

  计算公式:

  $$ (COV)_i= \frac {\delta _i }{ \bar {x} _i} \\ \omega _i = \frac { (COV)_i}{ \sum_\limits{i=1}^n (COV)_i} $$

  ※复相关系数(multiple correlation coefficient)是常用的一种求权重的方法。它是指一个随机变量与某一组随机变量间线性相依性的度量。该方法又叫独立权系数法。

  ※CRITIC方法(Criteria Importance Though Intercrieria Correlation)。CRITIC方法是由Diakoulaki提出的一种客观权重赋权法。它的基本思路是确定指标的客观权数以两个基本概念为基础。一是对比强度,它表示同一指标各个评价方案取值差距的大小,以标准差的形式来表现,即标准化差的大小表明了在同一指标内各方案的取值差距的大小,标准差越大各方案的取值差距越大。二是评价指标之间的冲突性,指标之间的冲突性是以指标之间的相关性为基础,如两个指标之间具有较强的正相关,说明两个指标冲突性较低。

  设 $C_j$ 表示第$ j$ 个指标(维度,分量)所包含的信息量,则 $C_j$可以表示为:

  $$ C_j= {\delta _j }{ \sum_\limits{i=1}^n (1- r_{ij})} $$

  $$ \omega _j = \frac { C_j}{ \sum_\limits{i=1}^m C_j} $$

  其中$r_{ij} $的计算即相关系数的计算是关键。

  $$ r_{ij} = \frac { n \sum xy -\sum x \sum y}{ \sqrt{ n \sum x^2 - ( \sum x)^2} \sqrt{ n \sum y^2 - ( \sum y)^2}} $$

  其中$ x ,y $转化到规范化矩阵$N=( \mathcal {n} )_{n\times m}$ 其中$x ,y$分别对应规范化矩阵的第$x , y $列的系列值此相关系数为简单相关系数

  ※熵权法(the entropy weight method 简称EWM)是脱胎于信息论基本原理的解释,信息是系统有序程度的一个度量,熵是系统无序程度的一个度量;如果指标的信息熵越小,该指标提供的信息量越大,在综合评价中所起作用理当越大,权重就应该越高。熵权法是常用的一种求权重的方法。它是指一个随机变量与某一组随机变量间线性相依性的度量。

  计算公式:

  $$ 已经归一化矩阵N=\left[ x_{ij} \right]_{n \times m} $$

  ☆ 第 $ j $ 项指标下第 $i$ 个样本值占该指标的比重:$$ \rho _{ij}=\frac {x_{ij}} {\sum \limits_{i=1}^{n}{x_{ij}}},(i=1,2,3,\cdots,n;j=1,2,3,\cdots,m)$$ 

  ☆ 第 $ j $ 项指标(列)的熵值: 由于自然对数或者是以正数为底取对数无意义,对于规范化(归一化)矩阵要专门处理!!

  $$ e_{j}=-k {\sum \limits_{i=1}^{n}{\rho _{ij}\times ln({\rho _{ij}}) } },(j=1,2,3,\cdots,m)$$

  $$其中通常取 \quad \quad   k= \frac{1}{ln(n)},( 0 \leqslant e_{j} \lt 1)$$

  ☆ 第 $ j $ 项指标(列)的差异系数:

  $$ \quad  d_{j}=1-e_{j} $$

  ☆ 第 $ j $ 项指标(列)的权重:

  $$ \omega_{j}=\frac {d_{j}} {\sum \limits_{j=1}^{m}{d_{j}}},(j=1,2,3,\cdots,m)$$

  ※反熵权法(the anti-entropy weight method 简称anti-EWM)其理念来自变异系数与熵权的概念,它认为指标的差异越大,反熵越大的理念,反熵越大,对应的权重越高。

  $$ 规范化矩阵N= \begin{array} {c|c|c|c|c|c|c|c}{ \tilde N_{n \times m}} &1 &2 &{\cdots} &{m-1} &m \\ \hline 1 & \mathsf {n}_{11}& \mathsf{n}_{12}&{\cdots}& \mathsf{n}_{1(m-1)}&\mathsf{n}_{1m} \\ \hline 2 & \mathsf {n}_{21}& \mathsf{n}_{22}&{\cdots}& \mathsf{n}_{2(m-1)}&\mathsf{n}_{2m} \\ \hline {\vdots} &{\vdots}&{\vdots}&{\ddots}&{\vdots}&{\vdots}\\ \hline n & \mathsf {n}_{n1}& \mathsf{n}_{n2}&{\cdots}& \mathsf{n}_{n(m-1)}&\mathsf{n}_{nm} \\ \hline \end{array} $$

  $$ r_{ij}=\frac {\mathsf {n}_{ij}} {\sum \limits_{i=1}^{n}{\mathsf {n}_{ij}}},(i=1,2,3,\cdots,n)$$

  $$ h_{j}=- \sum \limits_{i=1}^{n}{r_{ij} ln(1-r_{ij})},(i=1,2,3,\cdots,n)$$

  $$ \omega_{j}=\frac {h_{j}} {\sum \limits_{j=1}^{m}{h_{j}}},(j=1,2,3,\cdots,m)$$

  ※主成分分析(Principal Component Analysis,PCA), 是一种统计方法,也是快用烂了的一种方法,spss,matlab,python都有这玩意的工具包。通过正交变换将一组可能存在相关性的变量转换为一组线性不相关的变量,转换后的这组变量叫主成分。 主成分分析首先是由K.皮尔森(Karl Pearson)对非随机变量引入的,尔后H.霍特林将此方法推广到随机向量的情形。信息的大小通常用离差平方和或方差来衡量。此方法为常用的方法,它最大好处并不是求出各维度的权重,而是可以通过合并与抛弃部分维度,从总体上减少维度,使得分析的内容减少,模型更简洁且有说服力。它深刻的体现了,简洁就是美,堆出来的东西很可能里面是一堆垃圾信息。

  ※因子分析权数法(Factor analysis weight method FAM), 这种方法也快用烂了,一般的用SPSS的基本都是用到这玩意。因子分析是指研究从变量群中提取共性因子的统计技术。最早由英国心理学家C.E.斯皮尔曼提出。他发现学生的各科成绩之间存在着一定的相关性,一科成绩好的学生,往往其他各科成绩也比较好,从而推想是否存在某些潜在的共性因子,或称某些一般智力条件影响着学生的学习成绩。因子分析可在许多变量中找出隐藏的具有代表性的因子。将相同本质的变量归入一个因子,可减少变量的数目,还可检验变量间关系的假设。


2、距离公式


编号 中文名 英文名 通式 概要说明
1 欧几里得距离 Euclidean $$d=\sqrt{\sum_{i=1}^N|P_i-Q_i|^2}$$ 最常用
2 曼哈顿距离 City block $$ d=\sum_{i=1}^N|P_i-Q_i|$$ 一阶距离
3 闵可夫斯基距离 Minkowski $$ d=({\sum_{i=1}^N|P_i-Q_i|^p})^{\frac{1}{p}}$$ 很有用
4 切比雪夫 Chebyshev $$ d=max_i|P_i-Q_i|$$
5 索伦森指数 Sorensen $$ d=\frac{\sum_\limits {i=1}^N{(P_i-Q_i)}}{\sum_\limits {i=1}^N{(P_i+Q_i)}}$$
6 高尔距离 Gower $$ d=\frac{1}{N}\sum_{i=1}^N{|P_i-Q_i|}$$
7 泽格尔丰度 Soergel $$ d=\frac{\sum_\limits{i=1}^N|P_i-Q_i|}{\sum_\limits {i=1}^N max(P_i,Qi)} $$
8 卡克辛斯基 Kulczynski $$ d=\frac{\sum_\limits{i=1}^N |P_i-Q_i|}{\sum_\limits{i=1}^N min(P_i,Q_i)}$$ 分母为零额外处理
9 堪培拉距离 Canberra $$ d =\sum_\limits{i=1}^N{\frac{|P_i-Q_i|}{P_i+Q_i}} $$ 分母为零额外处理
10 洛伦兹距离 Lorentzian $$ d=\sum_ \limits {i=1}^N ln(1+|P_i-Q_i|)$$
11 交集覆盖度 Intersection $$ d=1-s=\frac{1}2\sum_{i=1}^N|P_i-Q_i|$$
12 波浪篱笆 WaveHedges $$ d=\sum_{i=1}^N{\frac{|P_i-Q_i|}{max(P_i,Q_i)}}$$ 分母为零额外处理
13 泽卡诺夫斯基 Czekanowski $$ d=\frac{\sum\limits_{i=1}^N|P_i-Q_i|}{\sum\limits_{i=1}^N (P_i+Q_i)}$$ 分母为零额外处理
14 莫蒂卡 Motyka $$ d=\frac{\sum\limits_{i=1}^N max(P_i,Q_i)}{\sum\limits_{i=1}^N(P_i+Q_i)}$$
15 鲁茨卡 Ruzicka $$ d=1-\frac{\sum\limits_{i=1}^N min(P_i,Q_i)}{\sum\limits_{i=1}^N max(P_i,Q_i)}$$
16 谷本 Tanimoto $$ d=\frac{\sum\limits_{i=1}^N(max(P_i,Q_i)-min(P_i,Q_i))}{\sum\limits_{i=1}^N max(P_i,Q_i)}$$
17 内积 InnerProduct $$ d=1- \sum\limits_{i=1}^N P_iQ_i$$ 要求严格的归一化
18 调和平均数 Harmonic $$ d=1-2\sum_{i=1}^N\frac{P_iQ_i}{P_i+Q_i}$$ 分母为零额外处理
19 余弦 Cosine $$ d=1-\frac{\sum\limits_{i=1}^N P_iQ_i}{\sqrt{\sum\limits_{i=1}^N P_i^2}\sqrt{\sum\limits_{i=1}^N Q_i^2}}$$ 分母为零额外处理
20 杰卡德系数 Jaccard $$ d=\frac{\sum\limits_{i=1}^N(P_i-Q_i)^2}{\sum\limits_{i=1}^N P_i^2+\sum\limits_{i=1}^N Q_i^2-\sum\limits_{i=1}^NP_iQ_i}$$
21 骰子 Dice $$ d=\frac{\sum\limits_{i=1}^N (P_i-Q_i)^2}{\sum\limits_{i=1}^N{P_i^2}+\sum\limits_{i=1}^N{Q_i^2}}$$
22 逼真度 Fidelity $$ d=1- \sum_{i=1}^N\sqrt{P_iQ_i}$$
23 巴塔查里亚(巴氏) Bhattacharyya $$ d=-ln\sum_{i=1}^N \sqrt{P_iQ_i}$$
24 海林格 Hellinger $$ d=2\sqrt{1-\sum_{i=1}^N\sqrt{P_iQ_i}}$$
25 马图斯塔-杰弗里斯-松下 Matusita $$ d= \sqrt{2-2\sum_{i=1}^N\sqrt{P_iQ_i}}$$
26 正方弦 Squared-chord $$ d=\sum_{i=1}^N(\sqrt{P_i}-\sqrt{Q_i})^2 $$
27 方形欧几里德 Squared Euclidean $$ d=\sum_{i=1}^d(P_i-Q_i)^2$$
28 皮尔逊 Pearson $$ d_P(P,Q)=\sum_{i=1}^N\frac{(P_i-Q_i)^2}{Q_i} $$
29 奈曼分布 Neyman $$ d_N(P,Q)=\sum_{i=1}^N\frac{(P_i-Q_i)^2}{P_i} $$
30 方差 Squared $$ d=\sum_{i=1}^d\frac{(P_i-Q_i)^2}{P_i+Q_i} $$
31 概率对称 Probabilistic Symmetric $$ d=2\sum_{i=1}^d\frac{(P_i-Q_i)^2}{P_i+Q_i} $$
32 张量 Divergence $$ d=2\sum_{i=1}^N\frac{(P_i-Q_i)^2}{(P_i+Q_i)^2} $$
33 克拉克邻近 Clark $$ d=\sqrt{\sum_{i=1}^N(\frac{|P_i-Q_i|}{P_i+Q_i})^2} $$
34 加法映射 Additive Symmetric $$ d=\sum_{i=1}^N\frac{(P_i-Q_i)^2(P_i+Q_i)}{P_iQ_i} $$
35 KL散度 Kullback-Leibler $$ d=\sum_{i=1}^N P_iln\frac{P_i}{Q_i} $$
36 杰弗里斯 Jeffreys $$ d=\sum_{i=1}^N(P_i-Q_i)ln\frac{P_i}{Q_i} $$
37 K发散 K-divergence $$ d=\sum_{i=1}^N P_iln\frac{2P_i}{P_i+Q_i} $$
38 托普索 Topsoe $$ d=\sum_{i=1}^N(P_iln(\frac{2P_i}{P_i+Q_i})+Q_iln(\frac{2Q_i}{P_i+Q_i})) $$
39 詹森-香农 Jensen-Shannon $$ d=\frac{1}{2}[\sum_{i=1}^N P_iln(\frac{2P_i}{P_i+Q_i})+\sum_{i=1}^NQ_iln(\frac{2Q_i}{P_i+Q_i})] $$
40 詹森差 Jensen difference $$ d=\sum_{i=1}^N[\frac{P_ilnP_i+Q_ilnQ_i}{2}-(\frac{P_i+Q_i}{2})ln(\frac{P_i+Q_i}{2})] $$
41 内加 Taneja $$ d=\sum_{i=1}^N(\frac{P_i+Q_i}{2})ln(\frac{P_i+Q_i}{2\sqrt{P_iQ_i}}) $$
42 库马尔 - 约翰逊 Kumar-Johnson $$ d=\sum_{i=1}^N(\frac{(P_i^2-Q_i^2)^2}{2(P_iQ_i)^{3/2}}) $$
43 范数均值 $Avg(L_1,L_{\infty})$ $$ d=\frac{\sum\limits_{i=1}^N|P_i-Q_i|+max(|P_i-Q_i|)}{2} $$
44 波浪篱笆变种 Vicis-Wave Hedges $$ d=\sum_{i=1}^N \frac{|P_i-Q_i|}{min(P_i,Q_i)} $$
45 对称变种 Vicis-Symmetric $$ d=\sum_{i=1}^N\frac{(P_i-Q_i)^2}{min(P_i,Q_i)^2} $$
46 最小均值变种 Vicis-Emanon $$ d=\sum_{i=1}^N\frac{(P_i-Q_i)^2}{min(P_i,Q_i)} $$
47 最大均值变种 Vicis-max-Emanon $$ d=\sum_{i=1}^N\frac{(P_i-Q_i)^2}{max(P_i,Q_i)} $$
48 最大对称均值变种 Vicis-max-Symmetric $$ d=max(\sum_{i=1}^N\frac{(P_i-Q_i)^2}{P_i},\sum_{i=1}^d\frac{(P_i-Q_i)^2}{Q_i})$$

$ \{D^+ , D^- \}\Longrightarrow \{C^+ , C^- \} $贴近度公式



1、贴近度公式


编号
(正向指标)$ C ^+$
(负向指标)$ C ^-$
简要说明
1 $$ C_i^+ = \frac{ d_i^+} { d_i^- + d_i^+} $$ $$ C _i^- = \frac{ d_i^-} { d_i^- + d_i^+} $$ 最常见的贴近度,类似曼哈顿距离
2 $$ C _i^+ =\sqrt{ \frac{ (d_i^+)^2} { (d_i^-)^2 + (d_i^+)^2} } $$ $$ C _i^- =\sqrt{ \frac{ (d_i^-)^2} { (d_i^-)^2 + (d_i^+)^2} } $$ 类似欧式距离公式
3 $$ C _i^+ = \frac{ (d_i^+)^2} { (d_i^-)^2 + (d_i^+)^2 - d_i^+ d_i^-} $$ $$ C _i^- = \frac{ (d_i^-)^2} { (d_i^-)^2 + (d_i^+)^2 - d_i^+ d_i^-} $$ 杰卡德系数变种

2、距离与贴近度指标的性质


  ※距离正理想点距离越远效果越差,$D^+$为负向指标。

  ※距离负理想点距离越远效果越好,$D^-$为正向指标。

  ※越贴近距离正理想点数值越大越优,$C^+$为正向指标。

  ※越贴近距离负理想点数值越大越差,$C^-$为负向指标。

   上述4个指标性质容易搞混


TOSIS的变化形式(魔改方式)


  由流程图可知,规范化方法有6种,求权重方法10种,距离公式60种,贴近度公式3种。

  $6 \times 10 \times 60 \times 3 =10800$

  在上述变化中距离公式的选择与贴近度公式是最重要的变化部分。