职场文秘网

首页 > 总结汇报 > 工作汇报 / 正文

联立方程模型

2020-09-17 20:14:00

第八章 联立方程模型 以前各章我们侧重讨论的是单个方程的回归模型,都是含一个因变量Y,一个或多个解释变量X。在这些模型里强调的是在给定X条件下去估计或预测Y。因果关系很清楚,从X到Y。

但是在许多实际问题中,这种单信道单方向的关系是没有意义的。例如,如果Y由X决定,而同时也有若干X的分量由Y决定。这时就有了双信道,或联立关系。这就使得谁是因变量谁是自变量变得暖昧起来。遇到这种情况,最好还是把它们都放到一块,就有了多于一个的方程,并且变量就分为内生变量,外生变量,或前定变量。这些方程互相制约,互相补充,人们不大可能从中单独解出某一个或几个方程。如果实在要置别的方程于不顾而强行用普通最小二乘方法去估计出参数,那么这些参数估计不仅可能是有偏的,而且可能不是相合估计,就是说,随着样本容量的增大,参数估计并不收敛到真实参数值。我们看如下的假设的方程组:
(8.0.1)  (8.0.2) 这里Y1和Y2互相依赖,是内生变量。X1是外生变量,与是随机扰动项,变量Y1与Y2也都是随机分布项。如果我们不能证明Y2与独立,Y1与独立,就应用LSE的话,估计就不是相合估计。

这样我们就大致勾画出了联立方程模型的特别之处和需要研究解决的问题。

性急的读者可以先看算例8.3.2,明白了方法其实很简单,再来看下面的复杂理论推导。

第一节 联立方程模型实例及OLS估计的相合性问题 下面我们给出一些具体的联立方程模型,最后再看普通最小二乘估计不满足相合性。

一、需求—供给模型、Keynesian模型、工资-价格Phillips模型 先看需求-供给模型。

商品价格P与售出数量Q由需求曲线与供给曲线的交点决定。假定将需求与供给曲线都简化为线性的,添加上随机项与,则需求与供给函数为:
需求函数:
(8.1.1) 供给函数:
(8.1.2) 平衡条件:
(8.1.3) 这里P为价格,、、、是参数。为负数表示价格越高,售出数量越少;
为正数表示价格越高,厂商对该产品生产越多。

不难看出P与Q是互相依存的变量。例如,因受其它因素(收入、财富、嗜好等)影响而发生改变,需求曲线发生漂移,如图8.1.1.1所示:
P P P S P1 S S P0 D1 D1 D0 P0 P0 P1 D0 D0 Q1 Q0 Q Q1   Q0 Q Q Q0 图8.1.1.1 图上显示,由于的改变而导致需求曲线(D线)改变时,价格P与生产量Q都发生改变。同样地,当改变而导致供应曲线(S线)发生改变时,P与Q也都发生改变。由于P、Q、、互相不独立,这就违反了经典最小二乘法的基本假定(关于解释变量X与随机误差ε独立的假定)。

再考虑简化的Keynesian模型:
消费函数:,0<<1 (8.1.4) 恒等式:
(8.1.5) 其中 C=消费支出 Y=收入 I=投资(假定为外生变量) S=储蓄 =随机分布项 与为参数 参数称作消费的边际嗜好(MPC),在经济理论里,0<<1,投资I=储蓄S。Y=C+I是国家收入恒等式。由于的改变,消费曲线发生漂移,如图8.1.1.2所示。当消费与投资增加时,反过来又影响收入,促使收入增加。由于它们不独立,OLS又不能应用。

C,I Y Y2 Y1 图8.1.1.2 下面看工资-价格模型。考虑货币工资与价格决定的Phillips模型:
(8.1.6) (8.1.7) 这里 = 货币工资改变率 UN = 失业率 = 价格改变率 =资本成本改变率 =进口原料价格改变率 、为随机扰动 可以看到价格影响工资,工资又影响价格,因而随机解释变量与随机误差项是相关的,OLS又不能应用。

二、宏观经济的IS模型、LM模型与计量经济的Klein模型 著名的宏观经济的IS模型(商品均衡模型)的非随机形式如下:
消费函数:,0<<1 (8.1.8) 税收函数:,0<<1 (8.1.9) 投资函数:
(8.1.10) 定义式:
(8.1.11) 政府开支:
(8.1.12) 国家收入恒等式 (8.1.13) 其中 Y = 国家收入 C = 消费支出 I = 计划的净投资 = 政府开支的给定水平 T = 税收 = 配置收入 = 利率 如果将有关变量代入,最终代入最后一式,可得IS方程 (8.1.14) 其中 (8.1.15) (8.1.16) IS方程显示了收入与利率的关系(图8.1.1.3左)。

r(利率) r(利率) . IS Y(收入) Y(收入) 图8.1.1.3 如果我们打算估计各参数,比如估计消费函数,会怎么样?我们能得到或的无偏估计吗?这是不大可能的。因为消费依赖于配置收入,后者依赖于国家收入Y,Y又依赖于r、以及其它参数,因此,除非我们考虑了全部影响,否则单靠C与Yd这样一个简单关系是不可能给出,的无偏估计的。

著名的IS-LM范例的另一半是LM模型,即金融市场均衡模型。它综合考虑利率与收入水平,建立了金融市场清晰的关系。LM模型的非随机形式如下:
货币需求函数:
(8.1.17) 货币供给函数:
(8.1.18) 均衡条件:
(8.1.19) 其中 Y = 收入 r = 利率 = 假定的货币供应水平,一般由政府决定 LM方程:从模型中可以解得 (8.1.20) 其中。对于给定的LM曲线如下图所示:
图8.1.1.4 IS模型与LM模型表示的收入Y与利率r的关系,一个是递增函数,一个是递减函数。当然平衡点应该是两条曲线的交点。

下面我们看计量经济的Klein模型。计量经济学家建立了许多联立方程组形式的计量经济模型,Klein模型是由宾夕法尼亚大学的Lawrence Klein教授建立的:
消费函数:
(8.1.21) 投资函数:
(8.1.22) 劳动力需求:
(8.1.23) 恒等式:
(8.1.24) 恒等式:
(8.1.25) 恒等式:
(8.1.26) 其中 C = 消费支出 I = 投资 G = 政府开支 P = 利润 W = 私人工资开销 W′=政府工资开销 K = 资本股份 T = 税收 Y = 税后收入 T = 时刻 、、为随机扰动 在这个模型中,C、I、W、Y、P、K是互相依赖的,是内生变量,而Pt-1、Kt-1、Yt-1是前置变量。模型里有6个方程(包括3个恒等式),可以确定6个内生变量的互相依存关系。

同样地,这里应用OLS并不合适,即使样本容量相当大,普通LSE也未必收敛到真值。

上面我们举了具体的联立方程模型例子。一般来说,联立方程模型里应包括 (1)行为方程。指经济行为,如需求,供给,投资,消费等。

(2)技术方程。指客观的不以人的意志为转移的经济技术上的数量关系。

(3)制度方程。指反映经济法规和经济制度的方程。

(4)恒等式。指按照定义一定成立的等式,或者一种均衡条件。

一般来说行为方程与技术方程含有随机扰动项。这些方程所表达的是经济变量之间的基本结构关系,所以又称结构方程。

三、OLS估计不满足相合性 前面已说过,普通最小二乘方法并不适宜用来估计联立方程组中的某一个单独的模型。因为这样的估计可能不相合,也就是当样本数n趋于无穷时,参数估计可能不收敛于真值。以收入确定模型(Keynesian模型)为例,假如我们想估计模型中的消费函数中的参数,。假定(当j≠0)),Cov=0。这样从单个模型看,经典的假定是满足的。

我们先证明与相关,以消费函数代入恒等式,得 (8.1.27) 于是 (8.1.28) (8.1.29) (8.1.30) (8.1.31) 于是知道与相关。

下面推证不是的无偏估计,也不是相合估计。因为 (8.1.32) 最后一步是因为,并且。这里。

两边取数学期望得 (8.1.33) 虽然我们无法计算,但我们知道,除非它为0,否则不会是的无偏估计。

对两边取极限,由于已经求得,故 (8.1.34) 这就说明不是的相合估计。

第二节 模型识别与间接最小二乘 回忆需求-供给模型,假如我们有了关于Q与P的时间序列资料而没有任何其它附加信息,我们如何知道我们是在估计需求函数还是供给函数?换句话说,如果我们自己认为正在估计需求函数,我们如何保证确实如此而不是在估计别的什么?这一节将研究解决的正是这样一些有关模型识别的问题。

一、模型的结构式与简化式 我们先建立模型的一般形式。

设对于M个内生变量Y1,…,YM各有T个观察,对K个外生变量和前定变量X1,…,Xk也各有T个观察,模型含有M个随机误差项,也各有T个观察。Y1,…,YM,X1,…,Xk,都是T元向量。反映这些内生变量,外生变量,前定变量,随机误差之间的联合关系的联立方程模型可写作 (8.2.1) 这里与是方程组的结构参数,需要利用观察资料去估计。结构随机扰动项被假定为平稳多元随机过程,即 (8.2.2) (8.2.3) (8.2.4) 压缩地写,对于有 (8.2.5) 其中Σ是M×M的半正定对称阵。由于联立方程组中可能有某些零误差,Σ也可能不满秩。不过在估计中,我们也经常假定Σ非奇异。

如果记 (8.2.6) (8.2.7) (8.2.8) (8.2.9) (8.2.10) 则联立方程模型可以写为 (8.2.11) 其中Y、X为样本矩阵,E为不可观察的随机误差矩阵,Γ与B是待估的系数矩阵,Γ是内生变量Y的系数阵,B是外生——前定变量X的系数阵。注意Y与E的阶相同,Γ是M阶方阵,B是K×M阶矩阵。

如果Γ非奇异,则由YΓ+XB+E=0可得 (8.2.12) (8.2.13) 如果记 (8.2.14) (8.2.15) 则联立方程模型演变为简化形式:
(8.2.16) 其中被称为简化形式参数矩阵,V被称为简化形式扰动矩阵。这个简化形式的作用在于它使所有的内生变量成为所有外生或前定变量的线性函数。

如果将向量按行排,联立方程模型的简化形式也可以写为 (8.2.17) 或 (8.2.18) 例如对Keynesian模型,结构方程如下:
消费函数 (8.2.19) 恒等式 (8.2.20) C (消费)与Y (收入)是内生变量,I (投资)是外生变量。消去C以后,得简化形式 (8.2.21) 这里 (8.2.22) 如果是消去Y,可以得另一种简化形式:
(8.2.23) 这里 (8.2.24) 对于简化形式,已经没有变量之间的暖昧关系,于是可以应用最小二乘法。这时得到的估计称为间接最小二乘(Indirect Least Squares,ILS)估计。这样的估计过程叫做ILS。

下面叙述模型的一些渐近性质。

关于线性联立统计模型YΓ+XB+E=0,我们假定在不同方程里的误差项是平稳的和暂时不相关的。由一般的渐近理论有 (8.2.25) 这表示样本误差方差阵以概率收敛到有限总体方差阵。我们还假定正态随机向量 (8.2.26) 相应地对于简化形式模型,有 (8.2.27) 于是随机误差向量 (8.2.28) 习惯上我们还常常假定X的元素由非奇异协方差阵的随机过程所产生:
(8.2.29) 一般我们还假设X与E和V都不相关,即 (8.2.30) (8.2.31) 下面给出一个具体例子。设有联立方程模型 (8.2.32) (8.2.33) 其中Yi是内生变量的观察向量,Xi是非随机的外生变量的观察向量,随机向量、满足 (8.2.34) 这里 (8.2.35) 令,假设已知为 (8.2.36) 并且参数的实值是 , , , , , 于是YΓ+XB+E=0的形式写成的联立方程结构式是:
(8.2.37) 相应的简化式是 (8.2.38) 容易算出 (8.2.39) 故简化形式是 (8.2.40) (8.2.41) 相应的渐近结果是        =66+25=91 (8.2.42)    (8.2.43)    (8.2.44) 二、从简化式到结构式的参数估计 联立方程模型简化式是 (8.2.45) 如果取其第i个方程,i=1,…M,就是 (8.2.46) 它的最小二乘估计是 (8.2.47) 这个估计是相合的,因为 (8.2.48) 这里。如果X是非随机的,则还是无偏的。

如果假定模型的简化式写为 (8.2.49) 则有参数的广义最小二乘估计 (8.2.50) 这个结果等同于对每个方程分别应用LSE。

随机向量的方差是 (8.2.51) 未知的M×M矩阵估计为,其元素为 (8.2.52) 这里 (8.2.53) 在某些场合,如果可以提供关于向量的先验知识,例如某些系数为0,参数有线性组合等,那么从综合在一起的联立方程模型产生的的估计要比分开单独方程得出的的估计更有效一些(方差小一些)。

在对简化式作出了LSE以后,可以返回到原来结构式的参数估计。从结构式的简化式的变换是 , (8.2.54) 要想返回到结构式参数估计,就需要从、转换到、、。马上大家就明白了,转换的结果可能不唯一。

要想得到结构参数唯一的估计,需要有对B、Γ、Σ的某些先验知识。在许多现实问题中,下列先验信息总是存在的。

(1)规则化参数。

(2)矩阵Γ或B中的0限制,就是说,某些内生变量和外生变量前定变量不能出现在每一个方程中。

(3)对每个结构方程中的参数限制。

(4)对联络各个结构方程的参数限制。

(5)对Σ中某些元素的限制。

例如在结构方程中,我们总能使,于是规则化参数就唯一地与这个比例数相联系。第(2)种限制出现在某些结构方程关系式中,例如投资函数的加速原理表达为 (8.2.55) 这里It是投资,Yt是收入。如果将方程写为 (8.2.56) 就意着。第三种参数限制可见于Cobb-Douglas生产函数,其中的弹性系数之和规定为1。第(4)种限制可见于两个结构方程对某些变量有同样的系数。第(5)种参数限制举例说明如下。设有下面的递归联立方程:
(8.2.57) (8.2.58) 这里和被规则化为-1。在系统内,和X1影响Y1,Y1与X1、一起影响Y2。如果假定与独立的话,这个系统里最小二乘方法是合适的。方差阵可以指定为 OLS显然适合于递归方程组中的第一个方程,因为X1与没有关系。OLS也适用于第二个方程,因为只要与不相关,Y1与就不相关。因此该递归方程组中的Γ矩阵是上三角阵:
(8.2.59) 还有的限制Σ是对角阵,有的限制Σ的对角元素成比例等等。

当这些参数限制的先验信息足够多时,就可以保证结构方程的参数唯一。

下面给出具体例子,说明怎样使用间接最小二乘方法以及怎样利用先验信息。下面的模型有4个内生变量,4个外生变量或前定变量,有4个方程:
(8.2.60) 写成矩阵形式是 (8.2.61) 这里 , (8.2.62) 注意矩阵中的零元素,表示方程中该处系数为0,就是一种参数限制的先验信息。

简化式是 (8.2.63) (8.2.64) 这里 (8.2.65) 如果知道了的估计,则。写仔细一点就是 (8.2.66) 我们来具体验证结构方程中第一个方程的系数关系,就是,,,,之间的关系。由上式可得它们的关系为 (8.2.67) 将参数规则化,使,则上式中间两个方程为 (8.2.68) 写成矩阵形式是 (8.2.69) 由于可以从简化式中作出的估计,于是当 (8.2.70) 时,我们就可以解出与。将与代入系数关系式的第1个与第4个方程,我们又能算出与。因此对于原结构方程的第一个方程,我们借助于系数限制,完成了从简化式到结构式的系数估计。

我们庆贺对于第一个结构方程的成功,再来检验第二个方程的系数关系,即之间的关系。从式中又有 (8.2.71) 将参数规则化,使,得 (8.2.72) 现在有4个方程,然而只有三个未知数。如果任意挑选3个方程来解三个未知数,又多余了一个关系。事实上看最后两个方程,对同一未知数有两个不同的解:,。这意味着有关系式,但是实际的估计式未必遵守这一点。因此我们可以得到两个不同的间接最小二乘估计,它们都是相合估计,但是未必都是有效估计。

再来检查结构方程式里第三个方程的系数关系,即,,,,,的关系。由方程可得:
(8.2.73) 将规则化为-1,我们有4个方程,然而却还有5个未知数,于是还是没有唯一解。ILS方法对第三个方程就没有办法了,除非再能得到补充的有关系数限制的信息。

最后看第4个方程,如果将规则化为-1,则得 这是再好不过的了,OLS方法可以直接应用。

上面4个方程反映了OLS方法应用时遇到的4种情况。显然这样分析对于实用就太繁。

三、模型识别的秩条件与阶条件 将联立方程模型结构方程式YΓ+XB+E=0按列写出就是 这里Γi是(M×1)的未知向量,是内生变量的系数,Bi是(K×1)的未知向量,是外生变量或前定变量的系数,是不可观测的随机向量。在完整的结构方程里系数关系有 (8.2.74) 或者 (8.2.75) 因为矩阵有秩K,上式表示在M+K个变量中的K个方程。因为未知数比方程组多,就需要附加信息被识别。

下面我们看如何确定联立方程中的一个方程是否可以被识别。

假定有线性齐次式约束加于结构参数上,加上正则化规则,就可以用来识别一个方程。识别约束可被写作 (8.2.76) 这里Ri是一已知的(J×(M+K))矩阵,秩为J,J<M+K。如果Ri有且仅有一个非0元素,它是单位;
那么约束被称作排斥约束,因为它意味着有一个参数必须为0。因而相应变量将不出现在方程中。这是最常用的一种结构方程识别条件。

对于第i个结构方程的识别是基于上面两个等式。等式提供M+K个参数的K条信息,于是等式必须提供M-1条信息。再加上规则化参数条件,第i个方程的(M+K)个结构参数就可以根据简化式的参数估计解算出来,于是就说第i个方程的参数可被识别。

将上两式合并成 (8.2.77) 由于还可以加上一个规则化条件来解算结构参数,故上式左边的第一个矩阵的秩须为,即 (8.2.78) 如果这个条件能满足,我们可以保证与所提供的信息是互相独立的。

但是这个秩条件非常不容易验证,因为矩阵Π的元素与结构参数的函数关系太复杂。幸而人们证明了,上式的秩条件与 (8.2.79) 这个秩条件等价。而这个秩条件很容易验证。

因为矩阵有M列,第i列是,它有0元素,的秩为M-1,它应该至少有M-1行,并且Ri的秩也必须至少为M-1。换句话说,第i个结构方程被识别的必要条件:先验约束 (8.2.80) 等价于J ≥ M-1,这里J是约束数。这个条件经常被称为阶条件。

阶条件对于模型识别并非充分。可以给出一个例子。当另一个方程的系数满足第i个方程的约束条件,即 , (8.2.81) 时,这个结果意味着有两列为0,所以它的秩等于M-2,于是阶条件成立,但秩条件却不成立。当所有被排除在第i个方程以外的变量也被排除在第j个方程之外时,这种情况是会发生的。

我们可以总结一下模型识别问题。

(1)如果,第i个方程不能被识别。当时,当然也就是,第i个方程一定不能被识别。在这种情况下,我们不能从简化式的参数估计里推算出结构式的参数估计,间接最小二乘方法失效,其它方法也不能作出结构参数的相合估计。

(2)如果并且,则第i个方程恰好被识别。此时我们可以从简化式参数估计唯一推算出结构式的参数估计,并且估计是相合估计,有效估计。

(3)如果而,则第i个方程是“过识别”的。此时可以从简化式的参数估计推算出结构式的参数估计,不过解答不唯一,估计是相合的,但不一定是有效估计。

让我们再看一下上一段4个方程的例子。对于第1个方程,,于是 (8.2.82) 我们看到阶条件是满足的,因为R1是3行;
其阶为3=M-1=4-1。为了检查秩条件,计算出 (8.2.83) 当都不为0时,,并且,秩条件满足,于是第一个方程可以被精确识别。

对于第2个方程,Y3,Y4,X3,X4被排斥在外,约束矩阵R2,必有4行,其阶为4,阶条件是满足的。进一步看秩条件, (8.2.84) 它的秩至多是3,因为第2列为0。因此由总结的第(3)点知道,这个方程是过识别的。

第3个方程不能被识别,因为只有2个变量被排斥在外,R3只有2行,2<M-1。

第4个方程恰能识别,因为有3个变量Y1,Y2,Y3被排斥在外,R4的阶为3,3=M-1。

R4的前3列是单位阵,故 (8.2.85) 其秩为3。

下面我们总结一下有关经济模型识别的可能情况。

(1)如果一个方程仅仅包含一个内生变量,而包含所有外生变量,那它一定可以识别。

(2)如果一个方程包含所有变量,那它一定不能识别。

(3)如果在第i个方程里被排斥的变量都出现在第j个方程里,那它一定不能识别。

(4)如果两个方程包含完全相同的变量,那它一定不能识别。

(5)如果在第i个方程里被排斥的变量同样也被排斥在第j个方程之外,那么第i个方程的秩条件不满足因而不能识别。

(6)如果在第i个方程里被排斥的变量在其余M-1个方程的任意组合中都不出现,那么这个方程不能被识别。

四、联立性的Hausman检验与公众开支的P-R模型 如果对满足经典最小二乘条件的单个方程应用OLS,所得的参数估计应该是相合估计和有效估计。对联立方程模型,OLS估计可能不是相合估计。在下节,我们要介绍二阶段最小二乘的工具变量方法,它们可以给出相合估计与有效估计。很奇怪,如果我们将这些替代方法应用到没有联立关系的方程,它的估计还是相合的,但是却不是有效的(即方差不是最小)。这就要求我们在抛弃OLS而青睐那些替代方法之前,要对方程组的联立性作出检验。

我们已经知道,联立关系问题的产生原因在于某些变量成为内生变量,因而可能与随机扰动项或误差项相关。因此对联立性检验的基本出发点就在于检验内生变量是否与随机扰动项相关。如果相关,就用替代方法;
如果不相关,就用OLS。为了检验内生变量与随机扰动项是否相关,可以使用Hausman检验。

我们以具体例子说明Hausman检验。考虑两个方程的需求-供给模型:
需求函数 (8.2.86) 供给函数 (8.2.87) 这里 P = 商品价格 Q = 商品数量 I = 收入 R = 财富 = 误差项 由于都用Q而不区分Qd与Qs,这里已蕴含了恒等式Qd = Qs。

在供给函数中,如果没有联立性问题,即P与Q互相独立,那么P与应该不相关。另一方面,如果有联立性问题,P与将相关。为了检查P与到底相关不相关,Hausman检验有如下步骤。首先作出简化式:
(8.2.88) 其中与是简化式的随机误差项。对简化式的第一个方程用OLS得 (8.2.89) 因此 (8.2.90) 这里是的估计,是估计的残差。代入原结构式的第二个方程得 (8.2.91) 在没有联立性的零假设下,与的相关系数应为0,对上式作回归,项的系数应为统计意义下的0。如果在一定显著性水平下,项系数不为0,那就可以在此显著性水平下拒绝零假设,即认为存在联立性。

这就完成了Hausman检验。我们不难将这一方法推广至多元。

我们再进一步结合关于公众开支的Pindyck-Rubinfeld模型给出数值例子。为了研究美国联邦政府与地方政府用于公众的开支,Robert S.Pindyck与Daniel L.Rubinfeld建立如下联立方程模型:
(8.2.92) (8.2.93) 这里 EXP = 联邦与地方政府公众开支 AID = 联邦补助水平 INC = 联邦收入 POP = 联邦人口数 PS = 高级中学与初级中学学生数 、=误差项 在这个模型中,INC、POP、PS被看作外生变量。

由于考虑在EXP与AID之间可能有联立关系,所以首先将AID对INC、POP与PS作回归,即考虑:
(8.2.94) 误差项为,其估计值为。再将EXP对AID、INC、POP及作回归,得到如下结果:
(8.2.95) 样本数为20,算得的t统计量为-1.73,查表得t检验临界值,。于是知道在5%显著性水平(双侧)下,的系数不显著,因此在这个水平下,没有联立性问题。在10%显著性水平(双侧)下,的系数显著,因而认为存在联立性问题。

顺便提及的是,对原模型第一个方程作OLS,结果是 (8.2.96) 有趣的是,对EXP的两个回归方程,前一个是间接最小二乘(ILS),AID的系数为4.50(对应t统计量为5.89),它比第二个的普通最小二乘(OLS)里AID的系数3.24(对应t统计量为13.64)要大,然而对应t统计量却要小。

Hausman检验的思想还可用来鉴别一个变量究竟是内生变量还是外生变量。

我们原来确定一个变量究竟是内生变量还是外生变量主要靠先验信息和研究者自己的意图。其实也可以依靠统计方法。比如有一个联立方程模型,有3个方程,3个假定的内生变量Y1,Y2,Y3,还有3个肯定的外生变量X1,X2,X3。第一个方程是 (8.2.97) 如果Y2与Y3确实是内生变量,当然就不能针对上式这一个方程使用OLS。但是怎么知道Y2与Y3确实是内生变量呢? 我们可以仿照Hausman检验的思想。先获得关于Y2与Y3的简化形式(要求方程左边只有Y2或Y3一个变量,前定变量全部在右边)。于是可以得到Y2,Y3的估计,。将与添加到上式右边,作对,,,,的回归,即考虑对方程 (8.2.98) 作OLS,再来看与的系数与是否在统计意义下为0。如果在一定显著性水平下,,那么Y2与Y3就可以作外生变量处理,就可以直接对原模型的第一个方程作OLS。如果在一定显著性水平下拒绝了原假设,那么Y2与Y3就得当作内生变量,就要结合整个方程组综合考虑了。

算例8.2.4 联立性的Hausman检验 ------------------------------------------------------------------------------------------------------------------------- 联立性 Hausman 检验计算程序, 例 8.2.4 主要考虑两个方程, 一个是简化方程: P=Xπ+ν, 一个是原始结构方程: Q=β0+β1*P+ε 数据文件要求如此准备: 第一列为 P, 第二列为 Q, 以后各列为 X 如果您的方程与资料不是如此, 要先作化简, 整理 例824.D 数据文件中, n=30, M=4, 共有 6 列 数据文件第一列是 P 的资料, 第二列是 Q 的资料, 以后各列是 X 的资料 要显示原始资料吗? 0=不显示, 1=显示 (1) -1.5147 1.6122 -.4182 .1311 -.2100 -1.4737 1.5509 1.5065 .0215 .1410 -.4445 .1436 2.6246 1.8912 .6285 .0334 1.5756 -.8559 -1.3304 1.4062 .0500 -.1912 -.9611 -1.2896 .8037 1.7752 .0473 .7747 -2.0981 .3616 -1.0728 1.7862 -1.2203 .3373 -2.0200 -1.4258 .0319 1.5909 -.7738 -.7768 -.1266 .3684 .4277 1.2278 -.4141 1.1470 -1.1616 -.0137 1.7049 1.4122 -.9517 -1.1824 1.6209 1.2640 .0759 1.7270 -.6649 .9125 -.1741 -1.2186 -.0982 1.3467 .0503 -.0275 1.0522 -1.6916 1.6860 1.3188 1.8774 -.2458 .0716 -.6208 .9410 1.9296 -.3143 .9425 .2855 -.0069 .6624 1.0752 1.0368 1.7283 -1.8274 .0621 5.3021 1.2585 .6984 .2686 2.0596 1.4113 2.2518 1.1073 .7692 .4280 1.0135 -.2951 -1.0337 1.7615 -.8695 .3141 -1.5655 .0580 -.0543 1.4550 -1.0428 .0454 -.8836 .9883 7.0098 1.2853 2.2248 1.3972 1.5188 -.9172 .3018 1.4531 .4193 .3222 -.3265 .1917 1.5949 1.2206 -.5034 -.1179 .1374 -.0368 .8928 1.0517 .1483 -.1303 .2117 .4518 -.2896 1.8341 1.2356 -1.1727 -2.1618 .4489 1.6382 1.6443 .4776 .3637 .7291 .3806 4.2096 1.8400 1.2531 -1.1186 1.4939 .1379 3.9287 1.5492 1.9360 .6871 .6908 -.5499 2.0765 1.6925 .9337 .9322 .7875 -1.4553 .6766 1.4112 2.2321 -2.0561 1.0423 -.8813 -2.9611 1.0904 .2215 -1.1518 -.0551 -2.3700 2.5924 1.8573 -1.1282 -.1002 .8025 1.3238 要作回归预测吗? 键入 0=不预测, 1=要预测 (0) 要打印拟合数据吗? 0=不打印, 1=打印 (0) 现在作 Hausman 显著性检验 请输入显著性水平a, 通常取a=0.01, 0.05, 0.10, a=? (0.05) ----------------------------------------------------- 线 性 回 归 分 析 计 算 结 果 样本总数 30 自变量个数 2 ----------------------------------------------------- 回归方程 Y = b0+b1*X1+...+b2*X2 Y = 2.6430 + -.4038 X1 + -.5605 X2 回归系数 b0, b1, b2, ..., b2 2.6430 -.4038 -.5605 ----------------------------------------------------- 残差平方和: 48.19 回归平方和: 23.75 误差方差的估计 : 1.6062 标准差 = 1.2674 ----------------------------------------------------- Hausman 显 着 性 检 验 显著性水平 : .050 ----------------------------------------------------- 回归方程整体显著性F检验, H0:b0=b1=...=b2=0 F统计量: 6.6547 F临界值F(2, 27) 3.354 全相关系数 R : .7168 ----------------------------------------------------- 回归系数逐一显著性t检验, H0:bi=0, i=1,...,2 t 临界值 t( 27) 1.7033 回归系数b1-b 2的t值: 4.3835 2.7902 ----------------------------------------------------- 因为随机项 ν 的 t 值 2.7902 大于 t 临界值 1.7033 故联立性 Hausman 检验显著, 认为存在联立性 按任意键显示拟合图像, 是第一个简化方程的. 计算结束。

------------------------------------------------------------------------------------------------------------------------- 第三节 联立方程模型的统计推断方法 前面两节我们建立了联立方程模型,给出了具体例子,说明了其中统计推断问题之所在,描述了模型识别的基本情况与方法。现在我们该具体给出解决统计推断问题的方法了。

这些方法包含间接最小二乘(ILS),广义最小二乘法(GLS),二阶段最小二乘法(2SLS),三阶段最小二乘法(3SLS),有限信息最大似然估计法(LIML),完全信息最大似然估计法(FIML)等,其基本思想就是如何作出参数的相合估计与有效估计。

一、间接最小二乘与广义最小二乘 前面已经讨论过,在“过识别”方程里使用间接最小二乘时的主要问题在于先验的参数约束太多。只有一部分这样的信息被用来构造参数估计,这些估计一般不是有效的,因为一些信息又未予使用。我们需要一种使用所有样本而不浪费样本信息的参数估计方法,来帮助我们构造渐近有效估计。

让我们考虑模型的结构式里的间接最小二乘方法,从而使问题明晰并明确需要修补改进的地方。设模型的第i个方程为 (8.3.1) 如果去掉那些系数为0的变量,明确规则化系数为-1的,则方程可记为:
                 (8.3.2) 这里 , (8.3.3) , (8.3.4) , (8.3.5) 是那些在第i个方程里系数为0(或说不出现)的内生变量,共有个。是那些在第i个方程里系数为0(或说不出现)的外生变量与前定变量。而,Yi,Xi就是那些在第i个方程里出现的变量。是系数被规则化为-1的变量,它是(T×1)向量,Yi是(T×(mi-1))矩阵,是((mi-1)×1)向量,Xi是(T×ki)矩阵,是(ki×1))向量,是(T×1)向量,Zi=(Yi,Xi),而 (8.3.6) 结构式与简化式的系数关系在第i个方程里是ΠΓi = -Bi,就是 (8.3.7) 这里Γi与Bi分别是Γ与B的第i列。简化式里参数估计 (8.3.8) 是相合估计。将上面两个式子写在一起就是 (8.3.9) 这里和是变量Yi与Xi的结构参数估计。将上式左乘(X′X)得 (8.3.10) 重排一下:
    (8.3.11) 注意X′是(K×T)阶矩阵,Zi是(T×(mi-1+ki))阶矩阵,并且 (8.3.12) 是((mi-1+ki)×1)阶向量,因此X′Zi是(K×(mi-1+ki))阶矩阵。

如果第i个方程恰被识别,则要求 (8.3.13) 于是X′Zi成为方阵,这样间接最小二乘估计就是 (8.3.14) 当然这需要假定(X′Zi)满秩。因此,间接最小二乘方法的使用条件就是X′Zi是方阵,并且非奇异。

如果第i个方程未能识别,K<mi-1+ki,则矩阵X′Zi的秩不会超过K,这样X′Zi就不是方的,间接最小二乘方法就不能使用。

如果第i个方程是过识别的,K>mi-1+ki,参数约束关系比未知参数要多,虽然从K个关系式中可以注意取出mi-1+ki个来构造参数估计,但估计式未必是有效的,因为毕竟有一部分信息被抛弃了。

仔细检查等式与等式的关系可知,可以对后一等式左乘,以代替以的极限0向量代替,然后再约去,即可得前一等式。因此对于恰被识别的方程,也是工具变量估计。在现在情况下,工具变量集合就是前定变量集合X。对于过识别方程,X中的K个工具变量需要转换成mi-1+ki个变量以获得未知参数的唯一估计。如果误差向量被保留,则导致如下的广义最小二乘方法。

还是考虑第i个方程 (8.3.15) 以及由它变换来的统计模型:
(8.3.16) 这里X是(T×K)外生变量和滞后内生变量观察矩阵,。

为了应用广义最小二乘,需要计算 (8.3.17) 这个矩阵未知,但是因为我们主要兴趣在估计的渐近性质,所以可用它的极限去代替。我们假定。

给定,我们可以对方程应用广义最小二乘:
(8.3.18) 这里假定矩阵的逆存在。因为这个矩阵维数是mi-1+ki,如果它的逆存在,X的秩K必须等于或大于Zi的秩mi-1+ki,因为。因此mi-1+ki≤K,也就是 (8.3.19) 这里是在第i个方程里不出现的外生变量或前定变量数目。这个不等式是识别联立方程组中一个方程的必要条件。因此,为了使估计可行,结构式必须是恰好识别或者过识别。当过识别时,上式应是严格不等号,即。

如果结构式是恰能识别,是K阶方阵,则广义最小二乘估计变为间接最小二乘估计:
(8.3.20) 此时广义最小二乘估计可被视作工具变量估计,工具变量是,它是(T×(mi-1+ki))阶矩阵。

下面我们研究一下刚才作的广义最小二乘估计的渐近性质。假定第i个方程是可识别的,X仅仅包含外生变量(即不包含滞后变量),并且假定 (8.3.21) 存在,矩阵ΣXX非奇异,还假定 (8.3.22) (8.3.23) 要求X与是独立的。

为了证明的相合性,可将代入得:
(8.3.24) 取概率极限得:
(8.3.25) 我们已经假定,于是,我们还要估计及。因为 (8.3.26) (8.3.27) 故有 (8.3.28) 又 (8.3.29) 这意味着的极限存在且有限,记为 (8.3.30) 取转置得 (8.3.31) 于是我们可以估计的概率极限:
(8.3.32) 由于第i个方程是可识别的,的秩为mi-1+ki因此非奇异,这就保证了上式成立,即是的相合估计。

再来考虑的渐近分布。首先我们注意如果是正态分布,则也将是正态分布,均值为0,方差阵为 (8.3.33) 类似地可以证明依分布收敛于均值为0方差为的正态分布。

类似地,因为 (8.3.34) 于是 (8.3.35) 依分布收敛于均值为0,方差为矩阵Q的正态,这里    (8.3.36) 因此估计是相合的,并且在大样本时它的方差矩阵可以被近似作 (8.3.37) 这个矩阵可以如下估计 (8.3.38) 其中 (8.3.39) 这里或均可使是的相合估计,如果Zi仅仅包含非随机的外生变量,选择可使残差方差为无偏估计。

算例8.3.1 间接最小二乘与广义最小二乘 ------------------------------------------------------------------------------------------------------------------------- 间接最小二乘与广义最小二乘回归计算程序, 例 8.3.1 联立方程的结构式为 YΓ+XΒ+Ε=0, 当 Γ 非奇异时, 可以化为简化式 Y=XΠ+V (pp.375), 参数变换式为 ΠΓ=-Β, VΓ=-E。

间接最小二乘有两种情况, 一是对简化式作最小二乘, 再由先验信息将Π的估计转化为Γ与Β的估计; 一是在结构式中明确 Y 的系数为 -1 的与 X 的系数为 0 的(也是两种先验信息), 再对其作最小二乘。本项程序根据第二种情况编写。

所谓广义最小二乘, 就是对残差作进一步处理, 构造新的模型, 使误差满足普通最小二乘的条件。

本例数据文件要求前面的 My 列为因变量, 后面的 Mx 列为自变量,使用者要明确自己的结构方程组中, 每一个方程有一个 Y 的系数为-1, 要明确每一个方程中哪些自变量的系数为 0。

请键入要读入的数据文件名代号: (0) 1=C21.D, 2=C22.D, 3=C23.D, 4=C24.D, 5=C25.D 6=C11.D, 7=C12.D, 8=C13.D, 9=C14.D, 10=C15.D, 0=例831.D 例831.D 数据文件中, n=20, Mx=5, My=3 要显示原始资料吗? 0=不显示, 1=显示 (1) (见下段表8.3.2) 359.27 102.96 578.49 1.00 3.06 1.34 8.48 28.00 415.76 114.38 650.86 1.00 3.19 1.44 9.19 35.00 ………………………………………………………………………………………… 967.42 208.24 1246.99 1.00 8.09 6.19 28.84 38.00 1102.61 235.43 1401.94 1.00 9.24 6.69 34.36 41.00 要分开打印 Y 与 X 的值吗? 0=不打印, 1=打印 (0) 我们假定有几个因变量, 就有几个方程 对于第 1 个方程, 请告知因变量是数据块的第几列: (1) 对于第 1 个方程, 请告知自变量(包括 X 与 Y )共有几列: (3) 请告知第 1 个自变量(包括X与Y)是数据块的第几列: (4) 请告知第 2 个自变量(包括X与Y)是数据块的第几列: (5) 请告知第 3 个自变量(包括X与Y)是数据块的第几列: (6) 打印第 1 个方程的间接最小二乘回归结果 本次回归的因变量与自变量是: 359.2700 1.0000 3.0600 1.3400 415.7600 1.0000 3.1900 1.4400 ………………………………………………………… 967.4200 1.0000 8.0900 6.1900 1102.6100 1.0000 9.2400 6.6900 打印第 1 个方程的间接最小二乘的回归系数: 136.6624 81.3016 30.5261 现在作线性回归显著性检验, 计算t,F,R 统计量 请输入显著性水平a, 通常取a=0.01, 0.05, 0.10, a=? (0.05) ----------------------------------------------------- 线 性 回 归 分 析 计 算 结 果 样本总数 20 自变量个数 3 ----------------------------------------------------- 回归方程 Y = b1*X1+...+b3*X3 回归系数 b1, b2, ..., b3 136.6624 81.3016 30.5261 ----------------------------------------------------- 残差平方和: 137865.70 回归平方和: 830381.40 误差方差的估计 : 6893.2870 标准差 = 83.0258 ----------------------------------------------------- 线 性 回 归 显 着 性 检 验 显著性水平 : .050 ----------------------------------------------------- 回归方程整体显著性F检验, H0:b0=b1=...=b3=0 F统计量: 32.1233 F临界值F(3, 16) 3.239 全相关系数 R : .9261 ----------------------------------------------------- 回归系数逐一显著性t检验, H0:bi=0, i=1,...,3 t 临界值 t( 16) 1.7459 回归系数b1-b 3的t值: .6634 .8581 .3415 ----------------------------------------------------- 要作回归预测吗? 键入 0=不预测, 1=要预测 (0) 要打印拟合数据吗? 0=不打印, 1=打印 (0) 对于第 2 个方程, 请告知因变量是数据块的第几列: (2) 对于第 2 个方程, 请告知自变量(包括 X 与 Y )共有几列: (3) 请告知第 1 个自变量(包括X与Y)是数据块的第几列: (6) 请告知第 2 个自变量(包括X与Y)是数据块的第几列: (7) 请告知第 3 个自变量(包括X与Y)是数据块的第几列: (8) 打印第 2 个方程的间接最小二乘回归结果 本次回归的因变量与自变量是: 102.9600 1.3400 8.4800 28.0000 114.3800 1.4400 9.1900 35.0000 ………………………………………………………… 208.2400 6.1900 28.8400 38.0000 235.4300 6.6900 34.3600 41.0000 打印第 2 个方程的间接最小二乘的回归系数: -1.9569 5.5537 1.3312 现在作线性回归显著性检验, 计算t,F,R 统计量 请输入显著性水平a, 通常取a=0.01, 0.05, 0.10, a=? (0.05) ----------------------------------------------------- 线 性 回 归 分 析 计 算 结 果 样本总数 20 自变量个数 3 ----------------------------------------------------- 回归方程 Y = b1*X1+...+b3*X3 回归系数 b1, b2, ..., b3 -1.9569 5.5537 1.3312 ----------------------------------------------------- 残差平方和: 3750.26 回归平方和: 45579.66 误差方差的估计 : 187.5129 标准差 = 13.6935 ----------------------------------------------------- 线 性 回 归 显 着 性 检 验 显著性水平 : .050 ----------------------------------------------------- 回归方程整体显著性F检验, H0:b0=b1=...=b3=0 F统计量: 64.8200 F临界值F(3, 16) 3.239 全相关系数 R : .9345 ----------------------------------------------------- 回归系数逐一显著性t检验, H0:bi=0, i=1,...,3 t 临界值 t( 16) 1.7459 回归系数b1-b 3的t值: .0903 1.0321 1.5466 ----------------------------------------------------- 要作回归预测吗? 键入 0=不预测, 1=要预测 (0) 要打印拟合数据吗? 0=不打印, 1=打印 (0) 对于第 3 个方程, 请告知因变量是数据块的第几列: (3) 对于第 3 个方程, 请告知自变量(包括 X 与 Y )共有几列: (3) 请告知第 1 个自变量(包括X与Y)是数据块的第几列: (5) 请告知第 2 个自变量(包括X与Y)是数据块的第几列: (6) 请告知第 3 个自变量(包括X与Y)是数据块的第几列: (7) 打印第 3 个方程的间接最小二乘回归结果 本次回归的因变量与自变量是: 578.4900 3.0600 1.3400 8.4800 650.8600 3.1900 1.4400 9.1900 ………………………………………………………… 1246.9900 8.0900 6.1900 28.8400 1401.9400 9.2400 6.6900 34.3600 打印第 3 个方程的间接最小二乘的回归系数: 118.9161 -136.3537 40.5328 现在作线性回归显著性检验, 计算t,F,R 统计量 请输入显著性水平a, 通常取a=0.01, 0.05, 0.10, a=? (0.05) ----------------------------------------------------- 线 性 回 归 分 析 计 算 结 果 样本总数 20 自变量个数 3 ----------------------------------------------------- 回归方程 Y = b1*X1+...+b3*X3 回归系数 b1, b2, ..., b3 118.9161 -136.3537 40.5328 ----------------------------------------------------- 残差平方和: 221307.30 回归平方和: 1524525.00 误差方差的估计 : 11065.3600 标准差 = 105.1920 ----------------------------------------------------- 线 性 回 归 显 着 性 检 验 显著性水平 : .050 ----------------------------------------------------- 回归方程整体显著性F检验, H0:b0=b1=...=b3=0 F统计量: 36.7399 F临界值F(3, 16) 3.239 全相关系数 R : .8996 ----------------------------------------------------- 回归系数逐一显著性t检验, H0:bi=0, i=1,...,3 t 临界值 t( 16) 1.7459 回归系数b1-b 3的t值: 1.0795 1.4307 1.3234 ----------------------------------------------------- 要作回归预测吗? 键入 0=不预测, 1=要预测 (0) 要打印拟合数据吗? 0=不打印, 1=打印 (0) 下面计算广义最小二乘。

对于第1个方程 先打印第 1 个方程的间接最小二乘的回归系数: 136.6624 81.3016 30.5261 再以此为基础计算广义最小二乘 现在作线性回归显著性检验, 计算t,F,R 统计量 请输入显著性水平a, 通常取a=0.01, 0.05, 0.10, a=? (0.05) ----------------------------------------------------- 线 性 回 归 分 析 计 算 结 果 样本总数 20 自变量个数 3 ----------------------------------------------------- 回归方程 Y = b1*X1+...+b3*X3 回归系数 b1, b2, ..., b3 125.3844 76.1727 39.2183 ----------------------------------------------------- 残差平方和: 1066.86 回归平方和: 108156.80 误差方差的估计 : 53.3430 标准差 = 7.3036 ----------------------------------------------------- 线 性 回 归 显 着 性 检 验 显著性水平 : .050 ----------------------------------------------------- 回归方程整体显著性F检验, H0:b0=b1=...=b3=0 F统计量: 540.6864 F临界值F(3, 16) 3.239 全相关系数 R : .9951 ----------------------------------------------------- 回归系数逐一显著性t检验, H0:bi=0, i=1,...,3 t 临界值 t( 16) 1.7459 回归系数b1-b 3的t值: .3653 .4611 .2298 ----------------------------------------------------- 要作回归预测吗? 键入 0=不预测, 1=要预测 (0) 要打印拟合数据吗? 0=不打印, 1=打印 (0) 按 Ctrl+C 可以中断计算立即显示当前拟合图像 对于第2个方程 先打印第 2 个方程的间接最小二乘的回归系数: -1.9569 5.5537 1.3312 再以此为基础计算广义最小二乘 现在作线性回归显著性检验, 计算t,F,R 统计量 请输入显著性水平a, 通常取a=0.01, 0.05, 0.10, a=? (0.05) ----------------------------------------------------- 线 性 回 归 分 析 计 算 结 果 样本总数 20 自变量个数 3 ----------------------------------------------------- 回归方程 Y = b1*X1+...+b3*X3 回归系数 b1, b2, ..., b3 -.4717 5.2168 1.3899 ----------------------------------------------------- 残差平方和: 230.51 回归平方和: 219294.00 误差方差的估计 : 11.5256 标准差 = 3.3949 ----------------------------------------------------- 线 性 回 归 显 着 性 检 验 显著性水平 : .050 ----------------------------------------------------- 回归方程整体显著性F检验, H0:b0=b1=...=b3=0 F统计量: 5073.7700 F临界值F(3, 16) 3.239 全相关系数 R : .9995 -----------------------------------------------------   回归系数逐一显著性t检验, H0:bi=0, i=1,...,3 t 临界值 t( 16) 1.7459 回归系数b1-b 3的t值: .0041 .1840 .2392 ----------------------------------------------------- 要作回归预测吗? 键入 0=不预测, 1=要预测 (0) 要打印拟合数据吗? 0=不打印, 1=打印 (0) 按 Ctrl+C 可以中断计算立即显示当前拟合图像 对于第3个方程 先打印第 3 个方程的间接最小二乘的回归系数: 118.9161 -136.3537 40.5328 再以此为基础计算广义最小二乘 现在作线性回归显著性检验, 计算t,F,R 统计量 请输入显著性水平a, 通常取a=0.01, 0.05, 0.10, a=? (0.05) ----------------------------------------------------- 线 性 回 归 分 析 计 算 结 果 样本总数 20 自变量个数 3 ----------------------------------------------------- 回归方程 Y = b1*X1+...+b3*X3 回归系数 b1, b2, ..., b3 137.9099 -145.5999 36.8791 ----------------------------------------------------- 残差平方和: 1743.01 回归平方和: 45802.32 误差方差的估计 : 87.1507 标准差 = 9.3355 ----------------------------------------------------- 线 性 回 归 显 着 性 检 验 显著性水平 : .050 ----------------------------------------------------- 回归方程整体显著性F检验, H0:b0=b1=...=b3=0 F统计量: 140.1475 F临界值F(3, 16) 3.239 全相关系数 R : .9776 ----------------------------------------------------- 回归系数逐一显著性t检验, H0:bi=0, i=1,...,3 t 临界值 t( 16) 1.7459 回归系数b1-b 3的t值: .8311 1.0613 .9284 ----------------------------------------------------- 要作回归预测吗? 键入 0=不预测, 1=要预测 (0) 要打印拟合数据吗? 0=不打印, 1=打印 (0) 计算结束。

------------------------------------------------------------------------------------------------------------------------- 下面显示的是三个方程的原始数据与拟合数据,一共6条曲线。

二、二阶段最小二乘与三阶段最小二乘 广义最小二乘估计能被表达为许多形式,各有自己的解释。比较有名的是由Theil建立的二阶段最小二乘方法。(Two-Stage Least Squares Estimate,2SLS)。为了导出二阶段最小二乘,可将改写为       (8.3.40) 我们已经知道可以将结构式写成简化式 (8.3.41) 将上式剖分取第i个方程得 (8.3.42) 其中yi是第i个共同依存的变量的(T×1)向量,Yi包含在第i个方程里出现的其余变量,是矩阵,专指那些在第i个方程里不出现的变量。是简化式里相应的系数,Πi的最小二乘估计是于是 (8.3.43) 这里是(T×(mi-1))矩阵。再利用(X′X)-1X′X=I的事实,前面对的复杂剖分式可继续简化为:
(8.3.44) 因此如果记,则(定义见(8.3.6)式)的二阶段最小二乘估计可被写为 (8.3.45) 这个估计当然也可以从对回归方程 (8.3.46) 的普通最小二乘法则得到。

因此,二阶段最小二乘(2SLS)法则如下:
(1)在统计模型Yi=XΠi+Vi中用LSE,用去估计简化式参数,用作出的预测。

(2)在统计模型中用LSE去作出结构参数的估计。

在每一结构方程中重复上述步骤,就可得到全部结构参数的估计。

前面已经说明,这样的二阶段最小二乘估计是相合估计,满足。但是它未必是有效估计,因为它是用每个单独的方程获得估计,它没有利用有关的信息,即那些在第i个方程里不出现的内生变量所提供的信息。它也没有利用关于方差的信息。Zellner与Theil(1962)考虑了这一点,提出一种三阶段最小二乘估计,(Three-Stage Least Squares Estimate,3SLS),以作出结构参数的不仅相合而且有效的估计。

下面先叙述三阶段最小二乘(3SLS)方法。

在上一段我们讨论第i个方程时左乘X′得到,i=1,…,M。将它按行排就是 (8.3.47) 如果使用Kronecker积,则可紧缩记为 (8.3.48) 这里 ,,, (8.3.49) y是(TM×1)向量,Z是矩阵,是向量,是TM×1向量。因为X是外生变量,假定与独立,故的方差阵为 (8.3.50) 这里Σ是未知的(M×M)矩阵。假定收敛到非随机极限,将是的相合估计,我们可以在上式中以ΣX′X代替最后结果。

在上述假设下,对紧缩模型用广义最小二乘得    (8.3.51) 因为X′X正定,故存在正交阵P1,使,于是前面述及的紧缩模型为 (8.3.52) (8.3.53) 这里的方差是。

将上式重写为 (8.3.54) 这里。对此式用广义最小二乘得    (8.3.55) 两处的结果是一样的,它都与未知的方差矩阵Σ有关。为了实现的计算,需要估计,还可以利用前面二阶段最小二乘的结果:
(8.3.56) 这里是前面二阶段最小二乘的估计结果,而 (8.3.57) 或 (8.3.58) p是模型中待估参数的总数。如果在模型中还有交叉方程系数限制,那么最好取为 (8.3.59) 于是的可计算的估计是 (8.3.60) 它正是三阶段最小二乘估计。

总结一下三阶段最小二乘估计算得:
(1)计算二阶段最小二乘估计,利用计算,从而得到。

 (2)利用作广义最小二乘计算三阶段最小二乘估计。

下面我们分析3SLS估计的大样本性质。先将分解一下:
    (8.3.61) 要证明是相合估计,我们假定M个结构方程中的每一个都是可识别的,对上式取概率极限得:
(8.3.62) 因为我们已经假定,这意味着,为了估计上式,我们需要估计或者它的转置以及。沿着这个思路我们往下分步进行。

因为 (8.3.63) 所以 (8.3.64) 又因为 (8.3.65) 如果我们记的转置为,则 (8.3.66) 于是 (8.3.67) 这就证明了,如果每个结构方程都可以识别,那么三阶段最小二乘估计是相合估计。

再来看渐近分布。我们仿照在广义最小二乘情形时的方法,考虑:
(8.3.68) 如果,则服从均值为0方差为 (8.3.69) 的正态分布。因此渐近服从均值为0方差为的正态分布。在二阶段最小二乘估计的基础上,有极限正态分布,均值为0,方差为 (8.3.70) 因为是的相合估计,我们可以使用 (8.3.71) 作为的渐近方差的估计。作为本段结束,最后我们证明三阶段最小二乘估计比二阶段最小二乘估计更有效,也就是方差更小。

我们前面已求得二阶段最小二乘估计,。按行排列就是    (8.3.72) 因此的极限分布的方差阵是 (8.3.73) 而三阶段最小二乘估计的方差阵是 (8.3.74) 现在我们要比较两个方差阵。它们都是正定阵,比较办法是作差,如果是非负定的,则记作,或。计算得:
(8.3.75) 这里 (8.3.76) 因为是正定阵,所以是非负定阵,因此,于是。这就证明了三阶段最小二乘估计比二阶段最小二乘估计更有效。

算例8.3.2 二阶段最小二乘与三阶段最小二乘 我们给出具体数值例子演示二阶段最小二乘与三阶段最小二乘,计算程序当然是通用程序。设有如下的结构方程 (8.3.77) 可按列排整齐为:
(8.3.77) 以矩阵形式写成是 (8.3.78) 其中Y与X各有T个观察, (8.3.79) 观察资料如下表,它采自全书参考书目[21]。

表8.3.2 Y1 Y2 Y3 359.2700 102.9600 678.4900 1.0000 3.0600 1.3400 8.4800 28.0000 415.7600 114.3800 650.8600 1.0000 3.1900 1.4400 9.1900 35.0000 435.1100 118.2300 684.8700 1.0000 3.3000 1.5400 9.900 37.0000 440.1700 120.4500 680.4700 1.0000 3.4000 1.7100 11.0200 36.0000 410.6600 116.2500 642.1900 1.0000 3.4800 1.8900 11.6400 29.0000 530.3300 140.2700 787.4100 1.0000 3.6000 1.9900 12.7300 47.0000 557.1500 143.8400 818.0600 1.0000 3.6800 2.2200 13.8000 50.0000 472.8000 128.2000 712.1600 1.0000 3.7200 2.4300 14.5000 35.0000 471.7600 126.6500 722.2300 1.0000 3.9200 2.4300 15.4700 33.0000 538.3000 141.0500 811.4400 1.0000 4.1500 2.3100 16.6100 40.0000 547.7600 143.7100 816.3600 1.0000 4.3500 2.3900 17.4000 38.0000 539.0000 142.3700 807.7800 1.0000 4.3700 2.6300 18.8300 37.0000 677.6000 173.1300 983.5300 1.0000 4.5900 2.6900 20.6200 56.0000 943.8500 223.2100 1292.9900 1.0000 5.2300 3.3500 23.7600 88.0000 893.4200 198.6400 1179.6400 1.0000 6.0400 5.8100 26.5200 62.0000 871.0000 191.8900 1134.7800 1.0000 6.3600 6.3800 27.4500 51.0000 793.9300 181.2700 1053.1600 1.0000 7.0400 6.1400 30.2800 29.0000 850.3600 180.5600 1085.9100 1.0000 7.8100 6.1400 25.4000 22.0000 967.4200 208.2400 1246.9900 1.0000 8.0900 6.1900 28.8400 38.0000 1102.6100 235.4300 1404.9400 1.0000 9.2400 6.6900 34.3600 41.0000 这个观察资料表不是实际资料,而是用Monte Carlo方法发生的。发生资料时规定系数矩阵为 , (8.3.80) 误差项服从正态分布,E[]=0,并且 (8.3.81) (8.3.82) 对于发生资料用的Γ与B,有 (8.3.83) 当然,上面列举的Γ、B、Σ、Π的数字对于回归计算都是未知的。参与回归计算的只有表8.3.2中的X与Y。我们的任务是从已知的模型形式(8.3.77)出发,利用X、Y的资料,去估计Π、Σ、Γ、B。

估计Π是第一阶段的工作,这个容易。由模型(8.3.78),假定存在,则有简化式:
(8.3.84) 就是 (8.3.85) 或者是 (8.3.86) 这是一种多因变量的线性回归模型,可以分开写为 (8.3.87) 这已经是普通的单因变量线性回归模型,马上就可以用OLS作出回归系数Πi误差方差、的估计:
(8.3.88) (8.3.89) 第一个阶段的估计任务就完成了。

第二阶段,回到原模型(8.3.77),在每一个方程中,用 去取代方程右边(不代左边)的Yi,就得到一个回归模型。从而作出参数估计。如对第一个方程有 (8.3.90) 这里都是已知的(T×1)资料向量,就可以用OLS估计出。

对第二个方程有 (8.3.91) 这里都是已知的(T×1)向量,就可以用OLS估计出,。

对第三个方程有 (8.3.92) 于是又可以估计出。

只看本算例而未看前面复杂的理论分析的读者会说,早知如此,何必要第一阶段回归?就在每一个方程中代入原始资料就可以回归出各系数嘛。是的,是可以直接作OLS,下面我们列出了直接OLS的计算结果。但是这样的回归各方程之间Y1,Y2,Y3互相牵扯,影响了回归结果的统计性质(相合性、渐近有效性)。所以我们在回归方程右边用取代Yi,各方程之间的Yi就不互相牵扯了。

看了前面理论分析的读者会觉得看得晕头转向,真不明白如此简单的二阶段最小二乘法则怎么给数学家说得如此难懂。是的,数学家会把很复杂的事情用数学表述得很简单,但是他们也经常把很简单的事情表述得很复杂。

下面是对原始模型(8.3.2)第一方程代入Xi,Yi直接作OLS得到的参数估计,写成矩阵形式:
下面是用二阶段最小二乘法则得到的估计:
对此可见,二阶段最小二乘结果与普通最小二乘还是有些差别,前者更靠近原始参数一些。

二阶段最小二乘还有一个工作是要估计误差方差。由(8.3.56)得     (8.3.93) 其中T为观察样本总数,p为待估参数总和,本例T=20,p=12,M=3。是在原模型(8.3.87)中右边以代替Yi,以二阶段最小二乘参数估计代入各参数算出的值,也就是左端的二阶段估计值。在本例中我们算得:
至此二阶段最小二乘工作全部完成。

由于未必是的形式,所以马上想到可以对它作广义最小二乘以改进估计性质。按照公式(8.3.61)或(8.3.65)的结果,联立方程组三阶段最小二乘估计为 (8.3.94) 其中 (8.3.95) (8.3.96) (8.3.97) 而Yi,Zi,δi是原始模型第i个方程的紧缩形式 (8.3.98) 在估计计算公式中,Σ应该代入二阶段最小二乘估计,而Zi中的Yi应该代入第一阶段的最小二乘结果(不要代原始资料)。

不过在编程计算三阶段最小二乘估计时,(8.3.94)中的Kronecker积将导致矩阵维数太高,实现有困难。我们宁可采用原始方法,反而简单。对紧缩模型(8.3.46)的矩阵式 现在问题是。取满秩分解,以右乘上式得 则 因此我们可以将资料对资料作OLS,再将回归系数右乘U即得三阶段最小二乘估计。

在本例资料中,三阶段最小二乘估计结果为 在本例资料中,二阶段最小二乘估计结果比三阶段最小二乘估计结果更靠近原始参数一些,当然这不是一般性结论。一般情况下应该是三阶段最小二乘估计渐近有效性更好一些。

有了Γ与B的估计,就可以代入原始模型中得到一系列方程,从而可以作出各种预测。在本例中如果取2SLS,就有 不过从预测角度,也许还是代入简化式更方便一些:
计算过程如下。需要强调指出的是关于结构方程非零系数的确定,需要键入矩阵Γ(程序上是C),B(程序上还是B)。以本例而言, C(2,1)=1;

C(3,1)=1 C(1,2)=1;

C(3,2)=0 C(1,3)=0;

C(2,3)=1 而C(1,1)=C(2,2)=C(3,3)=-1是程序自动赋值的。这样读者可以正确地键入自己的方程的系数。

------------------------------------------------------------------------------------------------------------------------- 二阶段二乘与三阶段二乘回归计算程序, 例 8.3.2 将因变量 Y 放在前 My(<6) 列, 将自变量 X 放在后 Mx(<10) 列 例832.D 数据文件中, n=20, Mx=5, My=3 要显示原始资料吗? 0=不显示, 1=显示 (0) 要分开打印 Y 与 X 的值吗? 0=不打印, 1=打印 (0) 打印第一阶段最小二乘结果, 矩阵 Π: -137.8313 12.5428 10.6898 108.5482 17.4090 117.7522 14.0445 -3.3120 -7.9135 -3.2125 1.0132 1.5603 6.1649 1.2084 7.4670 下面确定联立方程形式: 本联立方程模型由3 个方程组成, 方程的形式如下: Y1=C(2,1)*Y2+C(3,1)*Y3+...+B(1,1)*X1+B(2,1)*X2+...+B(5,1)* X5 Y2=C(1,2)*Y1+C(3,2)*Y3+...+B(1,2)*X1+B(2,2)*X2+...+B(5,2)* X5 Y3=C(1,3)*Y1+C(2,3)*Y2+...+B(1,3)*X1+B(2,3)*X2+...+B(5,3)* X5 ......... 总之, 左边顺次为因变量 Y 的各变量, 右边不能出现左边的变量, Y 的系数为 C(I,J), X 的系数为 B(I,J). 下面我们要确定 C(I,J), B(I,J) 中哪些为 0. 请注意各行方程系数标号的特点. 请作出工作选择: 0= 例文件, 自动给出 C, B. 1= 自己文件,逐个键入 C, B. 矩阵 C : -1 1 0 矩阵 C : 1 -1 1 矩阵 C : 1 0 -1 矩阵 B: 1 1 1 矩阵 B: 0 1 1 矩阵 B: 0 1 0 矩阵 B: 0 1 0 矩阵 B: 0 0 1 下面作第二阶段最小二乘 第 1 个方程右边共有 3 个非零系数 第1个方程的二阶段回归系数 -9.424 2.411 -65.711 第 2 个方程右边共有 5 个非零系数 第2个方程的二阶段回归系数 .196 39.560 -3.868 -6.065 1.643 第 3 个方程右边共有 4 个非零系数 第3个方程的二阶段回归系数 1.950 -8.919 80.648 5.055 打印第二阶段最小二乘回归结果 Y 的回归系数矩阵 Γ: -1.0000 .1960 .0000 -9.4236 -1.0000 1.9505 2.4115 .0000 -1.0000 X 的回归系数矩阵 Β: -65.7105 39.5598 -8.9190 .0000 -3.8675 80.6480 .0000 -6.0651 .0000 .0000 1.6431 .0000 .0000 .0000 5.0545 下面作回归预测, 利用简化式和二阶段系数 打印二阶段简化式回归方程系数 Π -142.2950 11.6684 13.8397 110.5007 17.7919 115.3504 14.8702 -3.1504 -6.1447 -4.0286 .8535 1.6647 6.3312 1.2410 7.4751 要利用二阶段简化式作回归预测吗? 0=不预测, 1=预测 要显示 Y 的回归拟合数据结果吗? 0=不显示, 1=显示 要显示 Y 的回归拟合图像结果吗? 0=不显示, 1=显示 (0) 要打印误差方差阵 Σ 的估计吗? 0=不打印, 1=打印 (1) 误差方差阵的估计: 8.3383 2.6128 .0116 2.6128 1.6280 -.1211 .0116 -.1211 11.0558 计算结束。

------------------------------------------------------------------------------------------------------------------------- 三阶段回归计算结果这里省略。

由于本例样本数不多(20个),自变量较多(7个),又采用二阶段最小二乘改进拟合效果,可以想象到回归结果必是高度拟合。图像果然如此,拟合曲线几乎与原始资料贴近为一条线,图中实际是有6条线。中间一条是Y1及,上边一条是Y2及,最下边一条是Y3及。

三、有限信息与完全信息的极大似然估计 前面谈到的联立方程参数估计方法,都没有利用含在误差项里的信息,尤其是没有考虑误差正态分布的假设。这一段我们要考虑这一点。先将简化式写下:
(8.3.99) 或者是 (8.3.100) 在这样的误差假定下,ε的概率密度函数是 (8.3.101) 再来推导y的分布密度f (y),需要考虑Jacobian变换,由于结构方程组是线性的,Jacobian变换仅含Γ矩阵的行列式的T次幂,y的密度就是 (8.3.102) 当y与Z给定,将δ与Σ视作参数时,上式是似然函数。在求极大化时,等价的对数似然函数是   (8.3.103) 这里。

所谓完全信息最大似然估计(Full Information Maximum Likelihood Method,FIML),是在考虑对参数Γ,B,以及Σ的各种约束下的对数似然函数的极大化。对Γ与B的零约束信息已包含在δ中,因为向量δ仅仅包含非0结构系数。如果约束信息只有对Γ与B的0约束,那么我们只需对δ与Σ求极大化就可以了。此时求导将产生δ的非线性函数。如果对Σ没有任何约束,那么对δ的完全信息最大似然估计将与三阶段最小二乘估计有相同的渐近分布。

当方程组太大时,计算关于δ的非线性函数存在计算上的困难。作为替代方法,可以对每一个单个方程或某一方程的子集使用最大似然估计方法。这就是有限信息最大似然估计法(Limited Information Maximum Likelihood Methods,LIML) 对第i个方程估计未知的结构参数:
(8.3.104) 这里Zi=(Yi,Xi),我们可以写下yi与Yi的联合密度:
(8.3.105) 这里(mi×mi)阶矩阵Σ*是矩阵Σ的分块阵;
y*是y的分段向量,包含y1,…,ymi;
Z*是Z的分块矩阵,包含Z1,…,Zmi;
δ*是δ的分段向量,包含δ1,…,δmi。与上式等价的对数似然函数是 (8.3.106) 在第i个结构方程识别约束 (8.3.107) 下,从对数似然函数极大化可以得到δ*,Σ*的估计,其中δ*包含了δi的估计。

我们继续考虑有限信息最大似然估计方法。在前面推导出来的简化式(8.2.49)中,我们各取其前mi个分块,记作 (8.3.108) 则基于V*的最大似然函数是 (8.3.109) 其中是的(mi×mi)分块阵。在取了Jacobian变换以后,等价的对数似然函数与(8.3.94)关于、Σ*的对数似然函数形式上相同。不过一般来说,LIML估计不如FIML估计有效,正如同2SLS估计不如3SLS估计有效一样。

Pagan(1979)研究了LIML的计算问题,认为计算LIML估计能够使用似乎无关的回归技术,即将方差阵对角化,将方程变量分离开。将结构方程写成 (8.3.110) 的形式,再将关于Yi的简化式写下:
(8.3.111) 这里 (拉直运算),。这个写法成立,因为在简化式里对yi与yk的限制恰好就是对LIML的限制。所谓似乎无关的回归是 (8.3.112) 将εi的元素与Vi的列之间的方差阵分块成 (8.3.113) 取逆矩阵的分块 (8.3.114) 则δi与πk的LIML估计为 (8.3.115) 将上式中的逆矩阵分块,就可以得到δi的LIML:
其中,,。令,,则。并且我们还可以建立有限信息最大似然估计与二阶段最小二乘估计之间的关系:
(8.3.116) 其中。

算例8.3.3 有限信息与完全信息的MLE ------------------------------------------------------------------------------------------------------------------------- 有限信息与完全信息的最大似然估计计算程序, 例 8.3.3 联立方程的简化式为 y=Zδ+ε , ε~N(0,Σ×IT) (8.3.100) 这里 Z 既包含 Y 也包含 X。如果Σ完全未知, 则需要估计的参数就太多, 计算复杂倒不说, 计算结果的可信度就成问题, 计算结果也难以把握和解释。我们简化计算, 就假定Σ为对角阵, 这样需要估计的参数是δ1,…,δM 与σ1,…,σT。为了充分利用约束信息,也为了进一步简化计算, 我们对每一方程分别计算最大似然估计。此时对每一方程只需估计一个误差方差σ。

本例数据文件要求前面的 My 列为因变量, 后面的 Mx 列为自变量。

使用者要明确自己的结构方程组中, 每一个方程有一个 Y 的系数为-1, 要明确每一个方程中哪些自变量的系数为 0。

例833.D 数据文件中, n=30, Mx=4, My=2 要显示原始资料吗? 0=不显示, 1=显示 (1) -.7796 .6122 -.4182 .1311 -.2100 -1.4737 -1.5065 .0215 1.0575 .1410 -.4445 .1436 .8912 .6285 .0334 1.5756 -.5829 -.8559 -.4062 .0500 -.1912 -.9611 -1.2896 .7752 .1517 .0473 .7747 -2.0981 .3616 .7862 -1.2203 .3373 -1.4085 -2.0200 -1.4258 -.5909 -.7738 -.7768 -.1266 .3684 1.5783 -.2278 -.4141 1.1470 -1.1616 -.0137 -1.4122 -.9517 .6019 -1.1824 1.6209 1.2640 -.7270 -.6649 .9125 -.1741 -.6598 -1.2186 .3467 .0503 -.0275 1.0522 -1.6916 -.3188 .5680 1.8774 -.2458 .0716 -.6208 -.9296 -.3143 .9425 .6525 .2855 -.0069 -.0752 1.0368 1.7283 -1.8274 .0621 .8758 .2585 .6984 .2686 2.0596 1.4113 -.1073 .7692 .5817 .4280 1.0135 -.2951 1.7615 -.8695 .3141 -1.5655 -1.0222 .0580 .4550 -1.0428 .0454 -.8836 .9883 -1.2853 .5311 2.2248 1.3972 1.5188 -.9172 -.4531 .4193 .3222 -.4001 -.3265 .1917 -.2206 -.5034 -.1179 .1374 -.0368 .3257 1.0517 .1483 -.1303 .2117 .4518 1.8341 1.2356 -1.1979 -1.1727 -2.1618 .4489 .6443 .4776 .3637 .7291 1.0818 .3806 1.8400 1.2531 -1.1186 1.4939 .1379 .5492 3.3267 1.9360 .6871 .6908 -.5499 .6925 .9337 .9322 -1.2409 .7875 -1.4553 -.4112 2.2321 -2.0561 1.0423 -.8813 -.1012 -1.0904 .2215 -1.1518 -.0551 -2.3700 -1.8573 -1.1282 -.6692 -.1002 .8025 1.3238 -1.5286 -1.5029 .3111 .8136 1.2310 1.6361 -.2804 1.4641 我们假定有几个因变量, 就有几个方程 先计算间接最小二乘, 再计算最大似然估计 对于第 1 个方程, 请告知因变量是数据块的第几列: (2) 对于第 1 个方程, 请告知自变量(包括 X 与 Y )共有几列: (3) 请告知第 1 个自变量(包括X与Y)是数据块的第几列: (4) 请告知第 2 个自变量(包括X与Y)是数据块的第几列: (5) 请告知第 3 个自变量(包括X与Y)是数据块的第几列: (6) 打印第 1 个方程的间接最小二乘回归结果 要打印本次回归的因变量与自变量吗? 0=不打印, 1=打印 (0) 本次回归的因变量与自变量是: .6122 .1311 -.2100 -1.4737 .0215 .1410 -.4445 .1436 ……………………………………………………… -.1002 1.3238 -1.5286 -1.5029 .8136 1.6361 -.2804 1.4641 打印第 1 个方程的间接最小二乘的回归系数: .1568 -.3832 .4058 打印第 1 个方程的误差方差估计: .6277 下面计算最大似然估计: 逐个输入 POWELL 算法迭代初值, 可参考第一次回归结果 注意最后一个迭代初值是方差的估计值, 必须为正. X(1)=? (0.2) X(2)=? (-0.4) X(3)=? (0.4) X(4)=? (0.6) 要打印目标函数值在迭代中的变化吗? 0=不打印, 1=打印 (0) 打印POWELL算法回归结果(一般来说, 它比最小二乘效果差) Y= -.2742 X1 + -.2703 X2 + -.0563 X3 误差方差估计 1.5242 似然函数极值 FY: 21.3188 要作回归预测吗? 键入 0=不预测, 1=要预测 (0) 要打印拟合数据吗? 0=不打印, 1=打印 (0) (见图8.3.3.1) 对于第 2 个方程, 请告知因变量是数据块的第几列: (1) 对于第 2 个方程, 请告知自变量(包括 X 与 Y )共有几列: (4) 请告知第 1 个自变量(包括X与Y)是数据块的第几列: (5) 请告知第 2 个自变量(包括X与Y)是数据块的第几列: (6) 请告知第 3 个自变量(包括X与Y)是数据块的第几列: (7) 请告知第 4 个自变量(包括X与Y)是数据块的第几列: (8) 打印第 2 个方程的间接最小二乘回归结果 要打印本次回归的因变量与自变量吗? 0=不打印, 1=打印 (0) 本次回归的因变量与自变量是: -.7796 -.4182 .1311 -.2100 -1.4737 -1.5065 1.0575 .1410 -.4445 .1436 ………………………………………………………………………… -.6692 .8025 1.3238 -1.5286 -1.5029 .3111 1.2310 1.6361 -.2804 1.4641 打印第 2 个方程的间接最小二乘的回归系数: .0843 .1884 -.2352 .2949 打印第 2 个方程的误差方差估计: 1.3499 下面计算最大似然估计: 逐个输入 POWELL 算法迭代初值, 可参考第一次回归结果 注意最后一个迭代初值是方差的估计值, 必须为正. X(1)=? (0) X(2)=? (0.2) X(3)=? (-0.2) X(4)=? (0.3) X(5)=? (1.4) 要打印目标函数值在迭代中的变化吗? 0=不打印, 1=打印 (0) 打印POWELL算法回归结果(一般来说, 它比最小二乘效果差) Y= -.4266 X1 + -.6173 X2 + .8559 X3 + .1030X4 误差方差估计 2.8303 似然函数极值 FY: 30.6012 要作回归预测吗? 键入 0=不预测, 1=要预测 (0) 要打印拟合数据吗? 0=不打印, 1=打印 (0) (见图8.3.3.2) 计算结束。

-------------------------------------------------------------------------------------------------------------------------

Tags: 联立方程   模型  

搜索
网站分类
标签列表