首页 理论教育 影响模式中的容量、滤波器和排队:失真程度和体系行为改变的关键因素

影响模式中的容量、滤波器和排队:失真程度和体系行为改变的关键因素

时间:2023-05-16 理论教育 版权反馈
【摘要】:此处提到的过程中,之前用来组合对问题的利益诉求和控制的LxL矩阵Q可给出与问题相关的失真程度。这些方程展示了稳定状态由于经常使用滤波器而振荡不定。在初次循环中,Q和R代表了应用到问题和政策互动上的失真滤波器LxL和IxI。除了体系环境产生的外部变化外,体系自身内部的行为改变可能是因为行动者的期待和实际情形错配。总体而言,出于对结果的期待,体系可能会有强烈的恫吓对反恫吓、以牙还牙的报复等元素。

影响模式中的容量、滤波器和排队:失真程度和体系行为改变的关键因素

此处可以猜测诸多改变收敛过程的附加因素,但真正的意图是追踪出改变的效应,这可分析得出。因此,值得关注下可以用之前小节中的代数方法引入和探究的那些因素了,但这不代表就能忽略哪些无法正式处理的重要因素。实际上,之后的一节和接下来的两章中,会提出决策制定的这些过程的一个仿真模型。此处包含的延伸模型是关于体系内行动者之间的互动模式的。将会展开两个概念,第一个概念的前提想法是行动者会被每隔一段时间体系内积累的紧张或拥挤而影响,第二个概念的前提想法是行动者会被紧张感减少而影响,这种紧张感的减少可以被解释为一种体系自身功能的积累现象。

可以合理猜测,当体系内紧张感不断增加时,决策制定结构会开始偏离给定的目标。比如,行动者处理信息所需的速度通常由于排队现象的增加而导致信息失真,因此这导致行动者失去信息或记忆。体系的容量可能过小,传播或接收方式可能太复杂,衡量实体的重要性或意义的过程可能太复杂。一种可能的结构会包含紧张感累积,其中紧张感会经常性地使过程失真。想象下在一个行动者在任一时间段内正常处理信息的过程中,但由于处理所费的功夫,信息在下一个时间段可能发生系统性失真。此处提到的过程中,之前用来组合对问题的利益诉求和控制的LxL矩阵Q可给出与问题相关的失真程度。相似地,IxI矩阵R可被定义成是政策失真测度。这些矩阵每相隔一个循环就被常规性地应用到决策制定过程中,它们也反映了利益和控制的传送的滤波。拿上面定义的过程为例:在第一个迭代或循环中,从问题重要性、行动者对政策的权力、政策的意义出发,行动者对问题的权力的新的测度可通过序列z(1)=r(1)X、r*(1)=r(1)XC、s(1)=r(1)XCW和r(2)=r(1)XCWG来定义。

但是,在该过程的第二次迭代时,会发生失真。问题的重要性像之前一样预测,

但对政策的权力的新分布被滤波器Q导致失真了:

政策的意义由以下预测

但行动者对问题的权力也由于滤波器R而失真了:

只看对问题的权力分布的话,递归关系通项可由以下得出:当循环(t)是奇数时,

当循环(t)是偶数时,

相似地,也可得出其他分布的关系。

但是,有意思的是极限内该过程的行为。不失去普遍意义的前提下,可假设Q和R都是随机矩阵——这个意义上来说,它们可被看作是给出了每个行动者使真实的利益和控制模式失真的比例或程度。显然矩阵(XCGW)(XCQWGR)也是随机的;这个矩阵会在t的极限范围内收敛于矩阵Λ。那么,在t的极限内,rodd=r(1)Λ且reven=r(1)ΛP。这些方程展示了稳定状态由于经常使用滤波器而振荡不定。但振荡的模式也发人深思,因为它暗示了不存在学习过程。行动者不会由于失真而改变自己的行为。行动者似乎认为失真是体系结构的一部分,无法被改变。这种效应尤其不真实,但它不是为了再次证明只有在体系的过程是体系结构的函数时,而非每隔一定时间使用的任意工具的函数时,才能维持平衡。(www.xing528.com)

更为真实地展示失真效应的方法是在之前一个时段内使失真变成体系行为和失真本身的函数。想象下行动者在过程开始之初接受了失真测度,但当行动者把失真联系到实际的影响模式时,这种失真会得到改进。这个意义上来说,行动者可以说是在学习。这个过程是通过与问题的权力分布相关来证明的,但也可轻易地延伸到其他分布上。在初次循环中,Q(1)和R(1)代表了应用到问题和政策互动上的失真滤波器LxL和IxI。那么

过程的第二次迭代中,组合原始失真测度和实际互动模式得出改进后的互动模式,在此基础上得出Q(2)和R(2)。正式写作,

可算出新权力分布r(3)

现在可得出直到T时的递推关系通项:

通过使用之前方程12.78中给出的五个运算,可用方程12.95直接导出其他分布的相应方程。

与上面描述的无学习过程不同,这种情况下的确可以收敛于一个独特的均衡。方程12.95中,矩阵(XC)t和(WG)t都是随机的且都在极限内是收敛的。首先设定,那么我们能证明12.95中的主方程的极限数列可写成

方程12.96提供了一种独特的均衡,但无法分析算出权力、影响、重要性、意义和价值的极限分布;它们必须通过全过程的迭代算出。此时这个过程不再是马尔科夫过程,但随着行动者尝试把实际互动和感知到的互动相匹配,影响模式的失真越来越向实际的影响模式靠近,所以仍旧会发生收敛。请注意,这个意义上来说,失真被认为是感知到的行动者互动的测度。也请注意,如果原失真矩阵是单位矩阵,那么方程12.96的极限等同于上面给出的正态过程方程12.77的极限。

最后讨论下不均衡,这种情形中最有戏剧性效果的阻止体系收敛的原因可能是体系行为的改变——即管理利益和控制的组合过程的规则或章程的改变。除了体系环境产生的外部变化外,体系自身内部的行为改变可能是因为行动者的期待和实际情形错配。有无数种可能性,但下面要说的是最重要的几种。首先,当行动者逐渐意识到缺乏权力,他们可能会结成联盟通过分享权力来扩张权力。在对任一行动者而言,利益和控制是负相关的情况下,权力将会很小,行动者可能因此尝试使自己的利益诉求和控制更紧密相配,反之亦然。如果他们的利益太过分化,他们会集中利益,或者他们可能会认为通过更广泛地传播他们的利益,就能选出一个能存活下去得到满足的利益。同样,有很多权力的行动者也可能“拉帮结派”形成联盟,也会多样化或集中利益诉求和控制。具体哪种形式取决于不同条件是如何相联系的。结盟可能由于组织或表现问题而倒塌,结盟也可能因为行动者拥有同样的规则而组合。总体而言,出于对结果的期待,体系可能会有强烈的恫吓对反恫吓、以牙还牙的报复等元素。显然,没有可以直接使用的分析演绎法。收敛可能发生,也可能不发生。唯一能探究这种行为的方法就是通过仿真模拟,下一节将会尝试介绍这样一种仿真模型的梗概。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈