序列直方图:
Mean均值, median中位数, maximum最大值, minimum最小值, Std.Dev标准差, skewness偏度, kurtosis峰度, “arque-bera统计量及其概率probability”
说明:正态分布的偏度S=0,呈对称分布。若样本序列的S>0,则呈右偏分布;否则呈左偏分布。正态分布的峰度K=3,若样本序列的K>3,则序列分布的尾部比正态分布的尾部厚,其分布呈现出“高瘦”形状,即“尖峰”;否则其分布的尾部比正态分布的尾部薄,其分布呈现出“矮胖”的形状。大多数金融时间序列呈“尖峰厚尾、非对称分布”。Jarque-Bera检验统计量用来初步检验某个分布是否为正态分布。在序列观测值为正态分
2布的原假设下,Jarque-Bera统计量服从(2)分布,可以根据Jarque-Bera统计量的概率
值P来决定是否拒绝零假设。若P大于检验水平α,则不能拒绝样本序列服从正态分布的原假设。
线性回归:
Variable变量,coefficient系数
std.error回归方程系数估计值标准误差,其主要用于衡量回归系数的统计可靠性,标准误差越大,说明回归系数估计值越不精确。
t-statistic是回归系数的 T统计量,用于检验某个系数是否显著的异于零。
Prob.是t统计量值的双侧概率(P值),若P小于检验水平,说明相应的系数估计值显著的异于零;否则系数不显著。如:在5%显著性水平下,如果P值小于0.05,就拒绝
原假设,否则接受原假设,认为他们对模型的因变量(Y)没有影响。
R-squanred 决定系数R^2, 较大则说明模型对因变量拟合得较好,模型中的解释变量能够解释因变量变动的很大一部分。(R^2并不是判断模型拟合好坏的唯一指标,回归模型的R^2较小,并不一定说明模型拟合程度很差。有时,如果回归方程中没有截距项或常数项,或者使用了两阶段最小二乘法(TSLS),则R^2可能为负数。)(R-squared是模型中所有自变量对因变量的整体拟合效果的度量,但是并不是越高越好,因为自变量越多,R2就越高,由此有了ADJUSTED R-squared,这个指标就剔除了自由度的影响。)
Adjusted R-squared 修整决定系数R^2,
Mean dependent var被解释变量均值
S.D.dependent var 被解释变量标准差
S.E.of regression 回归标准误差,用于度量残差的大小。大约67%的残差将位于正负一个标准误差范围之内,而95%的残差将位于正负两个标准误差范围之内。
Akaike info criterion赤池信息准则(AIC)和Schwarz criterion施瓦兹信息准则(SC)。AIC信息准则和SC准则用于评价模型的好坏,一般要求AIC值或SC值越小越好。当选择变量的滞后阶数(如协整检验中),可以通过选择使AIC或SC达到最小的滞后分布长度。
Sum squared resid 残差平方和RSS,越小越好,可以用作某些检验的输入值(如F检验)。
Log likelihood 是对数似然值(简记L),是基于极大似然估计得到的统计量,在线性
nnnLlog2log2222。对数似然值用于说明模型的精确性,L回归中,其计算公式为:
越大说明模型越精确。同时,可以通过比较有条件约束方程和无条件约束方程的对数似然估计值的差异进行似然比检验。L越大越好,实际上右边的AIC,SC就是根据它计算的,AIC和SC是越小越好,它们是为了选择最佳滞后期。
F-statistic和Prob (F-statistic)分别是F统计量极其相应的概率即P值,用于对方程的整体显著性进行检验。F检验是一个所有系数估计值都不为零的联合检验,即使所有系数的t统计量都是不显著的,F统计量也可能是显著的。F统计量越大模型整体越显著,根据上面提到的R2,残差平方和(SSR)计算得到。
Durbin-watson stat 是DW统计量,用于检验残差序列的自相关性,其计算公式为:
DW..(ut2ntut1)2t2ut1n2(1uut2nntt1)ut12t。Durbin和Watson给出了在5%和1%显著水平下,不
同样本量n和自变量个数k检验的临界值,用户可以将Durbin-Watson统计量值与临界值进行比较,从而判断模型的残差序列是否存在自相关。一般,如果DW统计量值比2小很多,说明该序列存在正的自相关。DW统计量值在2左右比较好,但是前提是模型中没有因变量的滞后期。一旦有因变量的滞后期了,就不能相信这个统计量了,应该看LM统计量。
因篇幅问题不能全部显示,请点此查看更多更全内容