TOPSIS-VIKOR-AISM联用模型


论文写作或者计算需要帮助可发邮件到 hwstu # sohu.com 把 #替换成@,请说清来意,不必拐弯抹角,浪费相互之间的时间。

TOPSIS-VIKOR-AISM联用常用模式

TOPSIS-VIKOR-AISM联用精简方式1

TOPSIS-VIKOR-AISM联用


  TOPSIS-VIKOR-AISM流程示意

  横向分成两步:

  偏序

  对抗解释结构模型运算即AISM运算

  纵向降维部分:

  1、归一化,无量纲化,规范化

  2、闵可夫斯基距离、范数、正负理想点距离降维

  3、妥协解

  4、妥协解敏感值与聚类特征求解

  5、区段截取,决策区间,粗糙集,心理账户决策区间

横向步骤说明


偏序-序拓扑概念

$$\require{cancel} \require{AMScd} \begin{CD} D=\left[ d_{ij} \right]_{n \times m}@>偏序规则>>A=\left[a_{ij} \right]_{n \times n} \\\end{CD} $$

其中 $D=\left[ d_{ij} \right]_{n \times m}$ 为决策评价矩阵。$n$行$m$列。$n$代表评价对象(要素、方案、样本);$m$代表维度(准则、属性、目标)。

其中 $A=\left[ a_{ij} \right]_{n \times n}$ 为关系矩阵。是一个布尔方阵。$n$代表评价对象(要素、方案、样本)。

对于决策矩阵$D$中 $n$个要素的任何一列都具有严格的可比性。

偏序规则

对于含有m列的评价矩阵D,其中的任意一列即指标维度,具有同属性,可比较的前提。维度的这种优劣的比较至少有着两种属性。

数值越大越优,数值越小越差,称之为正向指标。记作p1、p2……pm。 数值越小越好,数值越大越差,称之为负向指标。记作q1、q2……qm。

对于决策矩阵$D$中的任意两行$x,y$

负向指标有 $d_{(x,p1)} \geqslant d_{(y,p1)} 且d_{(x,p2)} \geqslant d_{(y,p2)} 且 {\cdots}且d_{(x,pm)} \geqslant d_{(y,pm)}$ 同时有

正向指标有 $d_{(x,q1)} \leqslant d_{(y,q1)} 且d_{(x,q2)} \leqslant d_{(y,q2)} 且 {\cdots}且d_{(x,qm)} \leqslant d_{(y,qm)}$

符合上述规则,要素$x$与要素$y$的偏序关系记作:$x ≺ y$

$x \prec y$的意义为$y要素$优于(好于,牛逼于,帅于,猛于)$x要素$ 。

上述规则成为偏序规则。对于决策矩阵通过偏序规则可以得到关系矩阵 $A$

$$a_{xy}= \begin{cases} 1, x \prec y \\ 0, 其它 \end{cases} $$

取偏序的简单示例

$$ 示例一: \begin{CD} D=\begin{array}{c|c|c|c|c|c|c}{M_{3 \times1}} &-(负向指标) \\ \hline A1 &1 \\ \hline A2 &2 \\ \hline A3 &3 \\ \hline \end{array} @>取偏序>> A=\begin{array}{c|c|c|c|c|c|c}{M_{3 \times 3}} & A1 &A2 &A3\\ \hline A1 &- & & \\ \hline A2 &1 &- &\\ \hline A3 &1 & 1 & -\\ \hline \end{array} \end{CD} $$

把只有1列的决策矩阵$D$中的负向指标想象成排名,A1为第1名。关系矩阵$A$中 A2->A1即A2行A1列对应的单元格意思为A1比A2牛逼,即$A2 \prec A1$

$$ 示例二: \begin{CD} D=\begin{array}{c|c|c|c|c|c|c}{M_{17 \times2}} & 正向指标 & 正向指标 \\ \hline A1 &1.9223 &0.59336 \\ \hline A2 &2.86838 &0.16965\\ \hline A3 &1.38284 &0.22882\\ \hline \end{array} @>取偏序>> A=\begin{array}{c|c|c|c|c|c|c}{M_{3 \times 3}} & A1 &A2 &A3\\ \hline A1 &- & & \\ \hline A2 & &- &\\ \hline A3 &1 & & -\\ \hline \end{array} \end{CD} $$

在三组数据中只有A3的两个属性值都小于于A1。关系矩阵$A$中 A3->A1即A3行A1列对应的单元格意思为A1比A3牛逼,即$A3 \prec A1$


对抗解释结构模型计算AISM计算部分



纵向步骤说明


规范化


  六大类归一化方法及注意事项

$$\begin{array} {|c|c|c|c|} \hline {名称} & {正向指标公式} & {负向指标公式} & {说明} \\ \hline 极差法 & n_{ij} = \frac{{o_{ij}-min(o_{j})}}{{max(o_{j})-min(o_{j})}} & n_{ij} = \frac{max(o_{j})-{o_{ij}}}{{max(o_{j})-min(o_{j})}} & \color{red}{最常用} \\ \hline 欧式距离法 & n_{ij} = \frac {o_{ij}} { \sqrt{ {\sum \limits_{i=1}^{n}{o_{ij}^2}} } }= \frac {o_{ij}} { ( {\sum \limits_{i=1}^{n}{o_{ij}^2}} )^{\frac 1 2} } & n_{ij} = 1- \frac {o_{ij}} { \sqrt{ {\sum \limits_{i=1}^{n}{o_{ij}^2}} } }= 1- \frac {o_{ij}} { ( {\sum \limits_{i=1}^{n}{o_{ij}^2}} )^{\frac 1 2} } & \color{red}{ 每一列数据之间差距不宜过大} \\ \hline 均值标准化(Z-score) & \frac{x-\mu }{\sigma } & \frac{\mu-x }{\sigma } & \color{red}{此方法并非归一化方法,需特殊处理} \\ \hline 反三角函数 & \frac{2 \times atan(o_{ij}) }{ \pi} & 1-\frac{2 \times atan(o_{ij}) }{ \pi} & \color{red}{出现零值需要额外处理} \\ \hline 对数压缩数据法 & n_{ij} = \frac{lg({o_{ij}) }}{{ lg (max(o_{j}))}} & n_{ij} = 1- \frac{lg({o_{ij}) }}{{ lg (max(o_{j}))}} & \color{red}{出现零值需要额外处理} \\ \hline sigmoid函数(Logistic函数) & n_{ij} = \frac{1} {1+{e}^{-o_{ij}} } & n_{ij} = 1-\frac{1} {1+{e}^{-o_{ij}} } & \color{red}{机器学习、神经网络等基本用这个} \\ \hline \end{array}$$

闵可夫斯基距离、范数、正负理想点距离降维


  闵可夫斯基相关介绍

  闵可夫斯基(Hermann Minkowski,1864-1909),德国数学家,在数论、代数、数学物理和相对论等领域有巨大贡献。他把三维物理空间与时间结合成四维时空(即闵可夫斯基时空)的思想为爱因斯坦的相对论奠定了数学基础。爱因斯坦说闵可夫斯基是他的数学老师。

  闵可夫斯基距离通式为:$({\sum_\limits{i=1}^N|P_i-Q_i|^p})^{\frac{1}{p}}$

$$ \begin{array} {|c|c|c|c|} \hline {距离公式名称} & {对应范数} & {通式} & {说明} \\ \hline 曼哈顿距离 & 1 & ({\sum_\limits{i=1}^N|P_i-Q_i|}) & \color{red}{最常用,常见的求总分方式就是采用此公式,极差法就是此距离公式} \\ \hline 欧几里得距离 & 2 & ({\sum_\limits{i=1}^N|P_i-Q_i|^2})^{\frac{1}{2}} & \color{red}{ TOPSIS采用此距离公式} \\ \hline 切比雪夫距离 & 无穷大 & ({\sum_\limits{i=1}^N|P_i-Q_i|^∞})^{\frac{1}{∞}} & \color{red}{取最大值的方法} \\ \hline \end{array}$$

  TOPSIS方法核心步骤

  TOPSIS (Technique for Order Preference by Similarity to an Ideal Solution )法是C.L.Hwang和K.Yoon于1981年首次提出,TOPSIS法根据有限个评价对象与理想化目标的接近程度进行排序的方法,是在现有的对象中进行相对优劣的评价。TOPSIS法是一种逼近于理想解的排序法,该方法只要求各效用函数具有单调递增(或递减)性就行。TOPSIS法是多目标决策分析中一种常用的有效方法,又称为优劣解距离法。该方法又被称为“双基点法”

  一言以蔽之:topsis核心就是针对归一化矩阵,通过带权值的距离公式求解出到正负理想点的距离

  $D_i^+ = \sqrt {\sum_\limits{j=1}^m { \omega_{j}^2 \left({Max(n_j) -n_{ij}} \right)} ^2} m为列$   负向指标

  $D_i^- = \sqrt {\sum_\limits{j=1}^m { \omega_{j}^2 \left({n_{ij}-Min(n_j) } \right)} ^2} m为列$   正向指标

  VIKOR方法核心步骤

  VIKOR(VlseKriterijumska Optimizacija I Kompromisno Resenje)是Opricovic(1998)[ ]提出一种基于理想解的折中排序方法,通过最大化群体效用和最小化个体遗憾来实现有限备选决策方案的最优排序。其中所谓的最大化群体效用又称为期望值,对应的闵可夫斯基范数为1时候的曼哈顿距离公式;个体遗憾值又称为遗憾值,对应的闵可夫斯基范数为无穷大的切比雪夫距离公式

  一言以蔽之:VIKOR核心就是针对归一化矩阵,通过带权值的范数为1与范数为无穷大闵可夫斯基距离求解出距离

  $$期望值 \quad \quad 闵可夫斯基公式范数为1 \quad \quad({\sum_\limits{i=1}^N|P_i-Q_i|^1})^{\frac{1}{1}} \rightsquigarrow S_i = \sum_\limits{j=1}^m{ \omega_{j} \left(\frac{Max(n_j) -n_{ij}}{Max(n_j) -Min(n_j)} \right)} \quad \quad 曼哈顿距离公式$$ 

  $$遗憾值 \quad \quad 闵可夫斯基公式范数为无穷大 \quad \quad ({\sum_\limits{i=1}^N|P_i-Q_i|^\infty})^{\frac{1}{\infty}} \rightsquigarrow R_i = \max_\limits{j=1} { \left( \omega_{j} (\frac{Max(n_j) -n_{ij}}{Max(n_j) -Min(n_j)} )\right)} \quad \quad 切比雪夫距离公式$$ 


  结合闵可夫斯基的范数概念,以及TOPSIS中正负理想点的概念。有如下六个距离情况。

-$S^+$ 期望值
- $D^+$ 欧式距离
-$R^+$遗憾值
$S^-$ 期望值
$D^-$ 欧氏距离
$R^-$遗憾值
$$ S_i^+ = \sum_\limits{j=1}^m{ \omega_{j} \left(\frac{Max(n_j) -n_{ij}}{Max(n_j) -Min(n_j)} \right)} \quad \quad $$ $$ D_i^+ = \sqrt {\sum_\limits{j=1}^m { \omega_{j}^2 \left({Max(n_j) -n_{ij}} \right)} ^2} \quad \quad $$ $$ R_i^+ = \max_\limits{j=1} { \left( \omega_{j} (\frac{Max(n_j) -n_{ij}}{Max(n_j) -Min(n_j)} )\right)} \quad \quad $$ $$ S_i^- = \sum_\limits{j=1}^m{ \omega_{j} \left(\frac{ n_{ij}-Min(n_j)}{Max(n_j) -Min(n_j)} \right)} \quad \quad $$ $$ D_i^- = \sqrt {\sum_\limits{j=1}^m { \omega_{j}^2 \left({n_{ij}-Min(n_j) } \right)} ^2} \quad \quad $$ $$ R_i^- = \max_\limits{j=1} { \left( \omega_{j} (\frac{n_{ij}-Min(n_j)}{Max(n_j) -Min(n_j)} )\right)} \quad \quad $$
负向指标
负向指标
负向指标
正向指标
正向指标
正向指标
闵可夫斯基距离 范数为 1
闵可夫斯基距离 范数为 2
闵可夫斯基距离 范数为 无穷大
闵可夫斯基距离 范数为 1
闵可夫斯基距离 范数为 2
闵可夫斯基距离 范数为 无穷大
到正理解的距离
到正理想解的距离
到正理想解的距离
到负理想解的距离
到负理想解的距离
到负理想解的距离
- 前缀表示为负向指标
- 前缀表示为负向指标
- 前缀表示为负向指标
+ 前缀表示为正向指标
+ 前缀表示为正向指标
+ 前缀表示为正向指标

妥协解


  在vikor中存在妥协解一个公式。其妥协(折中)解公式可以转化成如下:

  $ Q_i = \left( 1-k \right) a_i + k b_i $

  上述公式中,k就是一个分配系数。折中值来自于对a与b之间的分配。

  a与b具有同属性性质,即同为正向指标,或者同为负向指标。


解敏感值与聚类特征求解


  所谓敏感值即,存在着某个分配系数,会导致妥协值中,有两个值存在相等的情况。

对于 $x,y$样本

$$ \begin{cases} \left( 1-k \right) a_x + kb_x \\ \left( 1-k \right) a_y + kb_y \end{cases} $$

以上问题就变成了求两条线段是否在$[0,1]$值域内有相交的问题,此题属于初中的知识范畴,不再详细描述。

$$ \left( 1-k \right) a_x + kb_x =\left( 1-k \right) a_y + kb_y $$

$$ a_x-k a_x + kb_x =a_y-k a_y + kb_y $$

$$ a_x- a_y=-k a_y + kb_y +k a_x - kb_x $$

$$ a_x- a_y=(- a_y + b_y + a_x - b_x)k $$

$$ k =\frac{a_x- a_y}{( a_x- a_y + b_y - b_x)} $$

由于k为分配系数,其的取值为0到1之间。此k值称为拐点值,也称为敏感值。找出上述k值就是敏感性分析

当$k =0$时,妥协解的得到的排序等于 a的排序情况也等于vikor中S期望值的排序。

当$k =1$时,妥协解的得到的排序等于 b的排序情况也等于vikor中R遗憾值的排序。

在k的取值范围区间,只有若干的固定排序情况,其数目一般远小于样本数可能排序情况。


区段截取,决策区间,粗糙集,心理账户决策区间


顾名思义,区段指的是k取一组值,其边界为假定为$k_{min},k_{max}$

在$[k_{min},k_{max}]$区段内得到系列妥协值$[q_{min},q_{max}]$

由$[q_{min},q_{max}]$组成的排序情况等同于$q_{min},q_{max}$两列组成的排序。

该排序情况可以是一全序,也可以是一偏序。

前景理论、博弈论、妥协解相关


前景理论和心理账户


  Neumann和Morgenstern在1944年提出的经典理性决策模型—期望效用理论,假设经济活动的主体决策总是遵循利益最大化或者成本最小化的完全理性原则。然而事实上,学术界用大量的实证研究表明人们在实际的决策中大多数情况下都表现出非理性的特点,决策主体存在一定的决策心理偏好。主体决策中的心理偏好一般是指在制定决策的过程中对决策所产生的利益和风险持有独特的看法和反应。学术界研究中经典的决策偏好模型包括有损失厌恶、心理账户、公平性等决策偏好。

  损失厌恶反映了决策者对收益和损失持有的风险偏好不一致,当面对收益时,人们表现为风险厌恶;当面对损失时,人们却表现为风险追逐,因此常常做出与完全理性偏离的决策。心理账户是指决策者会将客观等价的支出或收益在心理上划分到不同的账户中,在制定决策时对不同的账户持有不同的权重系数,总是以不同的态度对待等值的收益或者支出,进而做出带有偏差的决策。公平性偏好(Fairness Preference)是指决策者持有的利益分配心理基准,并在此基础上产生的对收益不公平结果的一种抵制行为。

  1979 年,美国普林斯顿大学心理学教授Daniel Kahneman和Amos Tversky将心理学与经济学研究结合,提出了关于不确定条件下的人类判断和决策的“前景理论”(prospect theory),也叫“展望理论”。该理论认为个人基于心理参考点的不同,会有不同的风险态度,参考点会影响个体对实际决策结果的心理感知,主观地衡量效用价值的“获得”和“损失”,从而导致偏离期望效用理论的非理性决策行为,在不同的风险预期条件下,人们的行为倾向是可以预测的。同一个问题经由不同的决策主体可能会有不同的决策结果。由前景理论引申出的四个基本结论:

  第一,确定效应,即大多数人在面临获利的时候是风险规避的;第二,反射效应,即大多数人在面临损失的时候是风险喜好的;第三,参照依赖,即大多数人对得失的判断往往根据参考点决定;第四,损失效应,即大多数人对损失比对收益更敏感。

  Kahneman他们最初的研究认为标准前景是一种简单前景;而后来Tversky和Kahneman(1992)进一步将原始前景理论拓展到包含任意多个结果的不确定前景及风险前景,形成积累前景理论。

  针对运作管理问题领域,Schweitzer和Cachon(2000)首次通过引入心理学的实验实证检验方法检验了包括前景理论在内的众多行为因素对报童决策偏差的影响,实验结果却排除了前景理论的解释作用。Nagarajan等(2014)[ ]基于累积前景理论的价值函数和非线性权重函数构建了综合模型,研究结论也对“前景理论用于分析运作管理问题”提出了质疑。但是,一些学者的研究结果认为,Schweitzer等人的实验结果恰恰说明前景理论具有报童模型的决策偏差的解释作用(Ho,2010 ;Long,2015;Zhao,2015,褚宏睿等,2015;丁小东,2016)

  前景理论在一定程度上解释了沉没成本效应对消费者决策的影响,而Thaler认为这种解释并不充分,Thaler(1985)提出的心理账户理论认为,沉没成本之所以会影响消费者决策,除了前景理论外,在消费者内心中还存在着一个“心理账户系统”,个体在做决策的过程中,该系统包含着一个心理估价的运算过程,会自发地对获得与损失进行计算,将不同的得失放入不同类别的心理账户中,并在选择前对此作出衡量,由于消费者对不同的经济结果存在心理上的权重,常常会导致决策违背经济学的规律,Thaler同时提出了非替代性(non-funiginility)是心理账户的一个基本特征[ ]。顾军波等人(2020)[ ]基于心理账户将前景理论拓展用于复合结果情形,证实在偏好的特定组合下,前景理论能够解释报童趋中效应,报童趋中效应可归因于基于多重心理账户建构的价值函数。

  总之上面是灌水的话,主要是深刻理解心理账户区间,以及决策偏好期间,并同函数以及排序与偏序结合契合起来。

前景理论
前景值,期望值$S$
后悔理论
后悔值,遗憾值$R$
心理账户
对应一个决策期间即对应$[k_{min},k_{max}]$
决策偏好
可以理解为其值更偏向$S$ 还是偏向$R$
决策偏好区间
$q_{min},q_{max}$两列组成的排序。

TOPSIS-VIKOR-AISM联用创新点相关


  客观性

  这取决于原始数据的特点,原始数据很多是基于统计数据,来源真实是最突出的一个特点。它不是基于拍脑袋得来的数据。

  数据的标准化规范化(归一化)方法上存在着诸多的比较空间。

  上面提及了极差法、欧式距离法、均值标准化、Logistics函数、反三角函数、对数压缩数据法。六种形式的规范化方法。例子中采用了使用最为广泛的极差法。在实际的运用场景中,根据数据的特征分布,各种方法有其自身的特点与优势。因此SAISM中后续的方式方法不变,对不同的归一化方法所得的Q值排序情况的比较是今后进一步研究的一个方向。

  求权重的方法存在着诸多的进一步研究的空间。

  在其它页面不算组合赋权法,列出了变异系数法、复相关系数、CRITIC法、熵权法、反熵权法、主成分分析、因子分析权数法、层次分析法、网络分析法11种方法。客观赋权法主要是通过数据本身的分布特征由不同的指导思想从而获得各个指标的权重。它更强调的更依赖的是数据本身。主观赋权法主要指专业领域人员依靠专业知识、经验,通过主观判断来确定指标权重的方法。主观赋权法中最为常用的AHP与ANP方法。客观赋权法的熵权法是用得最多的客观赋权方法。主观赋权法与客观赋权法各有优势,各有侧重点,为了调和两种方法出现了各种主客观组合赋权法。因此,VIKOR中保持其它的方式方法不变,对不同的赋权法最后所得的Q值排序情况进行比较是今后进一步研究的一个方向。

  几何形变变换公式是今后进一步研究的最重要内容。

  VIKOR的几何形变变换公式,即用带权值的曼哈顿距离公式与切比雪夫距离公式。 根据开源网站 http://www.huaxuejia.cn/ism/D_S_N.php 给出的距离公式最少有60种。因此把S抽象为一种几何形变方式,代表一种特定的意义如高期望值,中期望值等。把R抽象为另外一张几何形变方式,代表与S不同的特点意义如高悔恨值,中遗憾值。任意两个不同类型的距离公式,可以得到一组不同的博弈组合。因此,VIKOR中保持其它的方式方法不变,对不同的一组距离公式最后所得的Q值排序情况进行比较是今后最重要的一个研究方向之一。以此类推,经典的VIKOR是通过两个距离公式求妥协解,也可以把两级拓展到三级,甚至更多级。即可以是X、Y、Z三个维度,再通过三个维度求妥协值。

  区段截取边界获得的实验设计是今后研究的一个重要方向。

  采用改进的Dephil法获取K值区间的过程虽然具有科学性,最终得到的边界值是可信的,但是其存在着明显的劣势,即它是基于特定专业人士的小群体。对于大的共同参与决策的群体,用统计的方式获得区段截取的边界值是今后研究的一个重要研究方向。