计量经济学的地位、作用和局限
1
2007
... 经济学特别是现代经济学的研究方法中, 主要有逻辑分析方法、历史分析方法与计量分析方法, 以及这些研究方法的交叉.例如, 计量经济史就是基于经济历史数据应用计量经济学方法研究经济史的重要问题.计量经济学是以经济观测数据为基础的实证研究最重要的研究方法论, 在推动经济学科学化过程中发挥了极其重要的作用.经济学研究的主要目的是透过大量复杂的经济现象, 识别经济变量之间的因果关系, 揭示经济系统的运行规律.由于经济观测数据具有非实验性的特点, 人们通常无法像自然科学那样通过可控实验识别经济变量之间的因果关系.因此, 计量经济学在经济分析中具有十分重要的方法论作用.正如使用数学是一门科学成熟的标志那样, 以数据为基础的计量经济学实证分析是经济学研究精确化的重要标志, 尤其在大数据时代更是如此.关于计量经济学在经济研究中的地位、作用及局限性, 可参见洪永淼(2007)、李子奈和齐良书(2010). ...
计量经济学的地位、作用和局限
1
2007
... 经济学特别是现代经济学的研究方法中, 主要有逻辑分析方法、历史分析方法与计量分析方法, 以及这些研究方法的交叉.例如, 计量经济史就是基于经济历史数据应用计量经济学方法研究经济史的重要问题.计量经济学是以经济观测数据为基础的实证研究最重要的研究方法论, 在推动经济学科学化过程中发挥了极其重要的作用.经济学研究的主要目的是透过大量复杂的经济现象, 识别经济变量之间的因果关系, 揭示经济系统的运行规律.由于经济观测数据具有非实验性的特点, 人们通常无法像自然科学那样通过可控实验识别经济变量之间的因果关系.因此, 计量经济学在经济分析中具有十分重要的方法论作用.正如使用数学是一门科学成熟的标志那样, 以数据为基础的计量经济学实证分析是经济学研究精确化的重要标志, 尤其在大数据时代更是如此.关于计量经济学在经济研究中的地位、作用及局限性, 可参见洪永淼(2007)、李子奈和齐良书(2010). ...
3
2011
... 在$ X^{\prime}X $为非奇异矩阵条件下, OLS估计量存在.在严外生性条件下OLS估计量是未知参数$ \beta^{0} $的无偏差估计.在条件同方差与零自相关条件下, OLS估计量为最佳线性无偏估计量(BLUE).而当随机扰动项服从独立同正态分布时, 对任意有限样本容量$ n>K $, OLS估计量的抽样分布为正态分布, 这个有限样本抽样分布可用于构建未知参数置信区间估计量, 也可用于构建参数假说的检验统计量, 包括著名的学生$ t $-检验和$ F $-检验统计量, 等等.参见洪永淼(2011, 第3章). ...
... 但是, 大多数经济金融数据的一个典型特征经验事实是非正态分布, 具有厚尾特点, 其主要标志是大多数经济金融数据的峰度均大于3.这样, 建立在随机样本正态分布假设基础上的有限样本经典抽样理论不再适用.计量经济学家因此提出了不少检验线性回归模型残差是否服从正态分布的检验方法, 以便判断经典线性回归模型理论是否适用, 其中一个著名的残差正态性检验是Jarque and Bera (1980)检验.现代计量经济学的一个主要发展就是放弃随机扰动项的正态分布假设, 运用渐近理论与方法(特别是大数定律与中心极限定理), 推导出大样本(即$ n\to\infty $)条件下OLS估计量及其他估计量仍然是未知参数的一致估计, 并且推导出这些估计量的渐近正态分布.从大样本分析中可以看到, 即使随机扰动项不服从正态分布, 在独立同分布的随机样本条件下, 只要随机扰动项存在条件同方差, 则当样本容量很大时, 经典$ t $-检验与$ F $-检验还是适用的, 而OLS估计量也是BLUE.换言之, 在存在条件同方差的条件下, 经典OLS理论在样本容量足够大时, 照样是适用的.这个结论, 当随机扰动项是鞅差分过程且满足条件同方差时, 对平稳时间序列的随机样本也是适用的.见文献洪永淼(2011, 第4章和第5章) ...
... 在20世纪70年代, 石油危机, 浮动汇率制度以及美联储高利率政策, 导致世界经济充满不确定性.如何测度经济不确定性及其对经济金融市场的影响便成为当时一个迫切的重要问题.由于波动量化分析的重要性, 计量经济学家便提出各种类型的条件方差模型, 包括Engle (1982)的ARCH模型, Bollerslev (1986)的GARCH模型, Nelson (1991)的EGARCH, 以及Glosten et al. (1993)的门槛GARCH模型, 等等.这些模型并不是对整个条件概率分布建模, 它们只是对某个时间序列因变量的前二阶条件矩建模, 因此不能用最大似然法(MLE)估计未知模型参数.在实证研究中, 为了估计波动模型的未知参数, 一般需要假设额外的辅助条件, 从而推导出时间序列因变量的整个条件概率分布, 因此可用MLE方法估计模型参数.由于辅助假设可能不正确(研究者事先也知道这一点), 波动模型的似然函数因此可能误设, 这种方法被称为Quasi-MLE, 或QMLE.只要前二阶条件矩模型设定正确, QMLE仍可一致地估计模型参数, 但代价是其估计量的渐近方差将大于基于正确条件概率分布的MLE的渐近方差, 因此QMLE估计量比较不精确. QMLE渐近方差的结构, 与MLE的渐近方差结构有显著的不同, 它类似于线性回归模型中OLS估计量在存在条件异方差与自相关时的渐近方差结构, 因此必须使用似然函数误设时仍然适用的稳健方差公式及其一致估计量.而MLE的渐近方差, 其结构则类似于线性回归模型OLS估计量在存在条件同方差与零自相关时的渐近方差.与线性回归模型的$ F $-检验类似, 当似然函数误设时, 著名的似然比检验量不再适用, 因为它相当于使用了MLE的渐近方差公式.人们可以构建基于QMLE渐近方差公式的稳健统计检验量, 如稳健Wald检验和稳健拉格朗日因子检验.参见洪永淼(2011, 第9章). ...
3
2011
... 在$ X^{\prime}X $为非奇异矩阵条件下, OLS估计量存在.在严外生性条件下OLS估计量是未知参数$ \beta^{0} $的无偏差估计.在条件同方差与零自相关条件下, OLS估计量为最佳线性无偏估计量(BLUE).而当随机扰动项服从独立同正态分布时, 对任意有限样本容量$ n>K $, OLS估计量的抽样分布为正态分布, 这个有限样本抽样分布可用于构建未知参数置信区间估计量, 也可用于构建参数假说的检验统计量, 包括著名的学生$ t $-检验和$ F $-检验统计量, 等等.参见洪永淼(2011, 第3章). ...
... 但是, 大多数经济金融数据的一个典型特征经验事实是非正态分布, 具有厚尾特点, 其主要标志是大多数经济金融数据的峰度均大于3.这样, 建立在随机样本正态分布假设基础上的有限样本经典抽样理论不再适用.计量经济学家因此提出了不少检验线性回归模型残差是否服从正态分布的检验方法, 以便判断经典线性回归模型理论是否适用, 其中一个著名的残差正态性检验是Jarque and Bera (1980)检验.现代计量经济学的一个主要发展就是放弃随机扰动项的正态分布假设, 运用渐近理论与方法(特别是大数定律与中心极限定理), 推导出大样本(即$ n\to\infty $)条件下OLS估计量及其他估计量仍然是未知参数的一致估计, 并且推导出这些估计量的渐近正态分布.从大样本分析中可以看到, 即使随机扰动项不服从正态分布, 在独立同分布的随机样本条件下, 只要随机扰动项存在条件同方差, 则当样本容量很大时, 经典$ t $-检验与$ F $-检验还是适用的, 而OLS估计量也是BLUE.换言之, 在存在条件同方差的条件下, 经典OLS理论在样本容量足够大时, 照样是适用的.这个结论, 当随机扰动项是鞅差分过程且满足条件同方差时, 对平稳时间序列的随机样本也是适用的.见文献洪永淼(2011, 第4章和第5章) ...
... 在20世纪70年代, 石油危机, 浮动汇率制度以及美联储高利率政策, 导致世界经济充满不确定性.如何测度经济不确定性及其对经济金融市场的影响便成为当时一个迫切的重要问题.由于波动量化分析的重要性, 计量经济学家便提出各种类型的条件方差模型, 包括Engle (1982)的ARCH模型, Bollerslev (1986)的GARCH模型, Nelson (1991)的EGARCH, 以及Glosten et al. (1993)的门槛GARCH模型, 等等.这些模型并不是对整个条件概率分布建模, 它们只是对某个时间序列因变量的前二阶条件矩建模, 因此不能用最大似然法(MLE)估计未知模型参数.在实证研究中, 为了估计波动模型的未知参数, 一般需要假设额外的辅助条件, 从而推导出时间序列因变量的整个条件概率分布, 因此可用MLE方法估计模型参数.由于辅助假设可能不正确(研究者事先也知道这一点), 波动模型的似然函数因此可能误设, 这种方法被称为Quasi-MLE, 或QMLE.只要前二阶条件矩模型设定正确, QMLE仍可一致地估计模型参数, 但代价是其估计量的渐近方差将大于基于正确条件概率分布的MLE的渐近方差, 因此QMLE估计量比较不精确. QMLE渐近方差的结构, 与MLE的渐近方差结构有显著的不同, 它类似于线性回归模型中OLS估计量在存在条件异方差与自相关时的渐近方差结构, 因此必须使用似然函数误设时仍然适用的稳健方差公式及其一致估计量.而MLE的渐近方差, 其结构则类似于线性回归模型OLS估计量在存在条件同方差与零自相关时的渐近方差.与线性回归模型的$ F $-检验类似, 当似然函数误设时, 著名的似然比检验量不再适用, 因为它相当于使用了MLE的渐近方差公式.人们可以构建基于QMLE渐近方差公式的稳健统计检验量, 如稳健Wald检验和稳健拉格朗日因子检验.参见洪永淼(2011, 第9章). ...
计量经济学模型的功能与局限
1
2010
... 经济学特别是现代经济学的研究方法中, 主要有逻辑分析方法、历史分析方法与计量分析方法, 以及这些研究方法的交叉.例如, 计量经济史就是基于经济历史数据应用计量经济学方法研究经济史的重要问题.计量经济学是以经济观测数据为基础的实证研究最重要的研究方法论, 在推动经济学科学化过程中发挥了极其重要的作用.经济学研究的主要目的是透过大量复杂的经济现象, 识别经济变量之间的因果关系, 揭示经济系统的运行规律.由于经济观测数据具有非实验性的特点, 人们通常无法像自然科学那样通过可控实验识别经济变量之间的因果关系.因此, 计量经济学在经济分析中具有十分重要的方法论作用.正如使用数学是一门科学成熟的标志那样, 以数据为基础的计量经济学实证分析是经济学研究精确化的重要标志, 尤其在大数据时代更是如此.关于计量经济学在经济研究中的地位、作用及局限性, 可参见洪永淼(2007)、李子奈和齐良书(2010). ...
计量经济学模型的功能与局限
1
2010
... 经济学特别是现代经济学的研究方法中, 主要有逻辑分析方法、历史分析方法与计量分析方法, 以及这些研究方法的交叉.例如, 计量经济史就是基于经济历史数据应用计量经济学方法研究经济史的重要问题.计量经济学是以经济观测数据为基础的实证研究最重要的研究方法论, 在推动经济学科学化过程中发挥了极其重要的作用.经济学研究的主要目的是透过大量复杂的经济现象, 识别经济变量之间的因果关系, 揭示经济系统的运行规律.由于经济观测数据具有非实验性的特点, 人们通常无法像自然科学那样通过可控实验识别经济变量之间的因果关系.因此, 计量经济学在经济分析中具有十分重要的方法论作用.正如使用数学是一门科学成熟的标志那样, 以数据为基础的计量经济学实证分析是经济学研究精确化的重要标志, 尤其在大数据时代更是如此.关于计量经济学在经济研究中的地位、作用及局限性, 可参见洪永淼(2007)、李子奈和齐良书(2010). ...
High-frequency Covariance Estimates with Noisy and Asynchronous Financial Data
1
2010
... 大数据产生了不少有别于传统数据的新型数据.例如, 每笔交易数据、日内资产价格数据、区间数据、函数数据等.这些新型数据呼唤新的计量经济学模型与方法.过去20年, 高频和超高频金融数据已经推动了高频金融计量学的快速发展.例如, Engle and Russell (1998)基于超高频每笔交易数据对价格变动之间的时间间隔进行建模, 提出一个autoregressive conditional duration (ACD)的新模型, 这个模型可利用超高频金融交易数据预测下一个价格变动的时间, 以及未来每个时间点价格变动的概率, 这些预测可用于量化投资交易策略设计及衍生品定价.另一方面, 利用日内资产收益率数据, 金融计量经济学家提出了新的估计每日波动率及每日资产收益率之间的协方差的方法, 这些高频波动率与协方差可用来改善投资组合管理和金融风险管理.参见Aaïit-Sahalia et al. (2010), Andersen et al. (2001, 2003, 2004), Barndorff-Nielsen and Shephard (2002, 2004), Noureldin, Shephard and Sheppard (2011), Shephard and Sheppard (2010). ...
The Distribution of Realized Stock Return Volatility
1
2001
... 大数据产生了不少有别于传统数据的新型数据.例如, 每笔交易数据、日内资产价格数据、区间数据、函数数据等.这些新型数据呼唤新的计量经济学模型与方法.过去20年, 高频和超高频金融数据已经推动了高频金融计量学的快速发展.例如, Engle and Russell (1998)基于超高频每笔交易数据对价格变动之间的时间间隔进行建模, 提出一个autoregressive conditional duration (ACD)的新模型, 这个模型可利用超高频金融交易数据预测下一个价格变动的时间, 以及未来每个时间点价格变动的概率, 这些预测可用于量化投资交易策略设计及衍生品定价.另一方面, 利用日内资产收益率数据, 金融计量经济学家提出了新的估计每日波动率及每日资产收益率之间的协方差的方法, 这些高频波动率与协方差可用来改善投资组合管理和金融风险管理.参见Aaïit-Sahalia et al. (2010), Andersen et al. (2001, 2003, 2004), Barndorff-Nielsen and Shephard (2002, 2004), Noureldin, Shephard and Sheppard (2011), Shephard and Sheppard (2010). ...
The Distribution of Realized Exchange Rate Volatility
0
2001
Modeling and Forecasting Realized Volatility
1
2003
... 大数据产生了不少有别于传统数据的新型数据.例如, 每笔交易数据、日内资产价格数据、区间数据、函数数据等.这些新型数据呼唤新的计量经济学模型与方法.过去20年, 高频和超高频金融数据已经推动了高频金融计量学的快速发展.例如, Engle and Russell (1998)基于超高频每笔交易数据对价格变动之间的时间间隔进行建模, 提出一个autoregressive conditional duration (ACD)的新模型, 这个模型可利用超高频金融交易数据预测下一个价格变动的时间, 以及未来每个时间点价格变动的概率, 这些预测可用于量化投资交易策略设计及衍生品定价.另一方面, 利用日内资产收益率数据, 金融计量经济学家提出了新的估计每日波动率及每日资产收益率之间的协方差的方法, 这些高频波动率与协方差可用来改善投资组合管理和金融风险管理.参见Aaïit-Sahalia et al. (2010), Andersen et al. (2001, 2003, 2004), Barndorff-Nielsen and Shephard (2002, 2004), Noureldin, Shephard and Sheppard (2011), Shephard and Sheppard (2010). ...
Correcting the Errors: Volatility Forecast Evaluation Using High-frequency Data and Realized Volatilities
1
2004
... 大数据产生了不少有别于传统数据的新型数据.例如, 每笔交易数据、日内资产价格数据、区间数据、函数数据等.这些新型数据呼唤新的计量经济学模型与方法.过去20年, 高频和超高频金融数据已经推动了高频金融计量学的快速发展.例如, Engle and Russell (1998)基于超高频每笔交易数据对价格变动之间的时间间隔进行建模, 提出一个autoregressive conditional duration (ACD)的新模型, 这个模型可利用超高频金融交易数据预测下一个价格变动的时间, 以及未来每个时间点价格变动的概率, 这些预测可用于量化投资交易策略设计及衍生品定价.另一方面, 利用日内资产收益率数据, 金融计量经济学家提出了新的估计每日波动率及每日资产收益率之间的协方差的方法, 这些高频波动率与协方差可用来改善投资组合管理和金融风险管理.参见Aaïit-Sahalia et al. (2010), Andersen et al. (2001, 2003, 2004), Barndorff-Nielsen and Shephard (2002, 2004), Noureldin, Shephard and Sheppard (2011), Shephard and Sheppard (2010). ...
Heteroskedasticity and Autocorrelation Consistent Covariance Matrix Estimation
1
1991
... 对时间序列线性回归模型, 当随机扰动项不但存在未知形式的条件异方差而且还存在未知形式的自相关时, OLS估计量的渐近方差估计量不仅要考虑条件异方差的影响, 也要考虑未知形式的自相关的影响.这需要估计所谓的长期方差-协方差矩阵. Newey and West $ (1987, 1994) $和Andrews (1991)等提出了用非参数核方法估计长期方差-协方差矩阵, 这些方法广泛应用于实证研究中.但是, 经验研究与计算机模拟实验发现, 当存在较强的自相关时, 基于核估计的长期方差-协方差估计量, 经常导致相关的统计检验量在有限样本条件下会过度拒绝正确的参数原假设, 即存在很大的Type I误差, 这个问题至今没有得到彻底的解决, 虽然已有各种改良方法. ...
Optimal Tests when a Nuisance Parameter is Present Only under the Alternative
1
1994
... 非平稳时间序列还可表现为结构变化(structure changes).结构变化通常分为两种, 一种是结构突变(structure breaks), 另一种是缓慢结构变化(smooth structural changes).存在结构突变的时间序列所产生的数据, 与单位根过程产生的数据有时看上去非常类似.对于结构突变, 自Chow (1960)提出针对单个已知变点(change point)的结构突变检验方法以来, 计量经济学家在这个方面取得了长足的发展, 特别是允许多个变点, 以及不知道变点的情形下如何检验是否存在结构突变, 并且建立了比较完善的大样本分布理论.可参考Andrews and Ploberger (1994, 1995), Bai and Perron (1998)等文献. ...
Admissibility of the Likelihood Ratio Test when a Nuisance Parameter is Present Only under the Alternative
1
1995
... 非平稳时间序列还可表现为结构变化(structure changes).结构变化通常分为两种, 一种是结构突变(structure breaks), 另一种是缓慢结构变化(smooth structural changes).存在结构突变的时间序列所产生的数据, 与单位根过程产生的数据有时看上去非常类似.对于结构突变, 自Chow (1960)提出针对单个已知变点(change point)的结构突变检验方法以来, 计量经济学家在这个方面取得了长足的发展, 特别是允许多个变点, 以及不知道变点的情形下如何检验是否存在结构突变, 并且建立了比较完善的大样本分布理论.可参考Andrews and Ploberger (1994, 1995), Bai and Perron (1998)等文献. ...
Estimating and Testing Linear Models with Multiple Structural Changes
1
1998
... 非平稳时间序列还可表现为结构变化(structure changes).结构变化通常分为两种, 一种是结构突变(structure breaks), 另一种是缓慢结构变化(smooth structural changes).存在结构突变的时间序列所产生的数据, 与单位根过程产生的数据有时看上去非常类似.对于结构突变, 自Chow (1960)提出针对单个已知变点(change point)的结构突变检验方法以来, 计量经济学家在这个方面取得了长足的发展, 特别是允许多个变点, 以及不知道变点的情形下如何检验是否存在结构突变, 并且建立了比较完善的大样本分布理论.可参考Andrews and Ploberger (1994, 1995), Bai and Perron (1998)等文献. ...
Investor Sentiment and the Cross-section of Stock Returns
0
2006
Investor Sentiment in the Stock Market
0
2007
Measuring Economic Policy Uncertainty
1
2016
... 大数据提供了传统数据所没有的很多信息, 这些信息可以用来构建以前不能精确测度的一些重要变量.例如, 通过社交平台和新闻媒体文本数据, 可构建投资者或消费者的情绪指数(如Baker and Wurgler $ (2006, 2007) $)和经济政策不确定性指标(如Baker et al. 2016), 然后研究这些变量对经济运行和金融市场的影响. ...
Estimating Quadratic Variation Using Realized Variance
1
2002
... 大数据产生了不少有别于传统数据的新型数据.例如, 每笔交易数据、日内资产价格数据、区间数据、函数数据等.这些新型数据呼唤新的计量经济学模型与方法.过去20年, 高频和超高频金融数据已经推动了高频金融计量学的快速发展.例如, Engle and Russell (1998)基于超高频每笔交易数据对价格变动之间的时间间隔进行建模, 提出一个autoregressive conditional duration (ACD)的新模型, 这个模型可利用超高频金融交易数据预测下一个价格变动的时间, 以及未来每个时间点价格变动的概率, 这些预测可用于量化投资交易策略设计及衍生品定价.另一方面, 利用日内资产收益率数据, 金融计量经济学家提出了新的估计每日波动率及每日资产收益率之间的协方差的方法, 这些高频波动率与协方差可用来改善投资组合管理和金融风险管理.参见Aaïit-Sahalia et al. (2010), Andersen et al. (2001, 2003, 2004), Barndorff-Nielsen and Shephard (2002, 2004), Noureldin, Shephard and Sheppard (2011), Shephard and Sheppard (2010). ...
Econometric Analysis of Realized Covariation: High Frequency Based Covariance, Regression, and Correlation in Financial Economics
1
2004
... 大数据产生了不少有别于传统数据的新型数据.例如, 每笔交易数据、日内资产价格数据、区间数据、函数数据等.这些新型数据呼唤新的计量经济学模型与方法.过去20年, 高频和超高频金融数据已经推动了高频金融计量学的快速发展.例如, Engle and Russell (1998)基于超高频每笔交易数据对价格变动之间的时间间隔进行建模, 提出一个autoregressive conditional duration (ACD)的新模型, 这个模型可利用超高频金融交易数据预测下一个价格变动的时间, 以及未来每个时间点价格变动的概率, 这些预测可用于量化投资交易策略设计及衍生品定价.另一方面, 利用日内资产收益率数据, 金融计量经济学家提出了新的估计每日波动率及每日资产收益率之间的协方差的方法, 这些高频波动率与协方差可用来改善投资组合管理和金融风险管理.参见Aaïit-Sahalia et al. (2010), Andersen et al. (2001, 2003, 2004), Barndorff-Nielsen and Shephard (2002, 2004), Noureldin, Shephard and Sheppard (2011), Shephard and Sheppard (2010). ...
Consistent Model Specification Tests
1
1982
... 由于回归模型误设(即$ E(\varepsilon _t|X_t)\not = 0 $)影响到参数的经济解释的有效性以及参数估计的一致性, Hausman (1978)提出了一个检验回归模型误设的方法, 被称为Hausman检验. White (1981), Newey (1985), Tauchen (1985)和White (1990)将此方法拓展到以矩条件为基础的更一般的模型设定检验, 称为矩检验或$ m $-检验.这些检验均不是一致检验(consistent tests), 即无法检测出一些误设模型, 甚至在大样本时也是如此. Bierens(1982, 1990), Hong and White (1995), Fan and Li (1996), Hong and Lee (2013)等采用非参数等方法提出了线性或非线性回归模型设定的检验方法.当样本容量足够大时, 这些方法可以检测任何形式的模型误设, 因此是一致检验. ...
A Consistent Conditional Moment Test of Functional Form
1
1990
... 由于回归模型误设(即$ E(\varepsilon _t|X_t)\not = 0 $)影响到参数的经济解释的有效性以及参数估计的一致性, Hausman (1978)提出了一个检验回归模型误设的方法, 被称为Hausman检验. White (1981), Newey (1985), Tauchen (1985)和White (1990)将此方法拓展到以矩条件为基础的更一般的模型设定检验, 称为矩检验或$ m $-检验.这些检验均不是一致检验(consistent tests), 即无法检测出一些误设模型, 甚至在大样本时也是如此. Bierens(1982, 1990), Hong and White (1995), Fan and Li (1996), Hong and Lee (2013)等采用非参数等方法提出了线性或非线性回归模型设定的检验方法.当样本容量足够大时, 这些方法可以检测任何形式的模型误设, 因此是一致检验. ...
Endogeneity in Semiparametric Binary Response Models
1
2004
... 内生性问题不仅在线性回归模型存在, 在其他类型的模型(如条件方差模型、条件分位数模型、条件分布模型等)中也都可能存在.另外, 内生性非参数与半参数回归模型也得到很大关注(参见Blundell and Powell (2004)).内生性问题在计量经济学中占有核心地位, 其主要原因, 乃是经济学家的最主要任务是识别、估计经济变量之间的因果关系, 从而揭示经济运行规律.有人说, 在大数据时代, 只需要相关性, 不需要因果关系.这一点不适合于经济学. ...
Generalized Autoregressive Conditional Heteroskedasticity
1
1986
... 在20世纪70年代, 石油危机, 浮动汇率制度以及美联储高利率政策, 导致世界经济充满不确定性.如何测度经济不确定性及其对经济金融市场的影响便成为当时一个迫切的重要问题.由于波动量化分析的重要性, 计量经济学家便提出各种类型的条件方差模型, 包括Engle (1982)的ARCH模型, Bollerslev (1986)的GARCH模型, Nelson (1991)的EGARCH, 以及Glosten et al. (1993)的门槛GARCH模型, 等等.这些模型并不是对整个条件概率分布建模, 它们只是对某个时间序列因变量的前二阶条件矩建模, 因此不能用最大似然法(MLE)估计未知模型参数.在实证研究中, 为了估计波动模型的未知参数, 一般需要假设额外的辅助条件, 从而推导出时间序列因变量的整个条件概率分布, 因此可用MLE方法估计模型参数.由于辅助假设可能不正确(研究者事先也知道这一点), 波动模型的似然函数因此可能误设, 这种方法被称为Quasi-MLE, 或QMLE.只要前二阶条件矩模型设定正确, QMLE仍可一致地估计模型参数, 但代价是其估计量的渐近方差将大于基于正确条件概率分布的MLE的渐近方差, 因此QMLE估计量比较不精确. QMLE渐近方差的结构, 与MLE的渐近方差结构有显著的不同, 它类似于线性回归模型中OLS估计量在存在条件异方差与自相关时的渐近方差结构, 因此必须使用似然函数误设时仍然适用的稳健方差公式及其一致估计量.而MLE的渐近方差, 其结构则类似于线性回归模型OLS估计量在存在条件同方差与零自相关时的渐近方差.与线性回归模型的$ F $-检验类似, 当似然函数误设时, 著名的似然比检验量不再适用, 因为它相当于使用了MLE的渐近方差公式.人们可以构建基于QMLE渐近方差公式的稳健统计检验量, 如稳健Wald检验和稳健拉格朗日因子检验.参见洪永淼(2011, 第9章). ...
Quasi-maximum Likelihood Estimation and Inference in Dynamic Models with Time-varying Covariances
1
1992
... 模型误设还可能出现在以下情形.一个线性回归模型, 如果观测数据存在若干缺陷, 如存在删失数据(censored data)或截断数据(truncated data), 那么OLS估计量便不是真实参数值的一致估计.在这个情况下, 可增加辅助假设, 例如假设随机扰动项服从正态分布, 然后用MLE方法估计未知模型参数.由于数据存在缺陷, 因变量与自变量之间的关系事实上已变为非线性关系, 但是MLE可以将原始线性回归模型的参数一致估计出来.在这里, 辅助假设是否正确, 会影响线性回归模型参数估计的一致性.另一方面, 波动模型是对因变量的前二阶条件矩建模.在波动模型正确设定的情况下, 我们并不知道因变量的条件概率分布, 此时通常也需要增加辅助假设(如假设标准化随机扰动项服从标准正态分布), 以便推导出因变量的条件概率分布, 从而使用MLE方法估计未知模型参数.由于辅助假设可能是错误的, 条件分布因此可能误设, 这种方法称为QMLE.但是, 如果条件均值和条件方差仍然正确设定, 则即使条件分布(即条件高阶矩)误设, QMLE仍可一致估计条件均值和条件方差模型中的未知参数值, 这与上述线性回归模型因数据缺陷而需要辅助假设的情形不同.但是, 模型误设将影响QMLE估计量的方差或精确度, 因此需要使用在概率分布模型误设时也适用的稳健性渐近方差公式.参见Bollerslev and Wooldridge (1992), Lee and Hansen (1994), Lumsdaine (1996). ...
Statistical Modeling: The Two Cultures (with Comments and a Rejoinder by the Author)
1
2001
... 由于经济数据样本容量有限和所使用的计量经济学方法的局限性等各种原因, 有时候可能存在两个或两个以上的经济理论或经济假说, 同时通过数据的检验, 换言之, 存在多个经济理论可以解释同一经济现象的可能性.这时, 到底哪个经济理论是正确的?这种情形在经济学称为模型不确定性(model uncertainty)或模型模糊性(model ambiguity).在大数据时代, 通常存在众多潜在的解释变量或预测变量, 因此有很大可能性出现共线性现象.在实际应用中, 可能存在几个不同的计量经济学模型(如包含不同解释变量的线性回归模型, 或不同函数形式的模型), 根据一定的统计学准则, 其表现非常相近或几乎一样.此外, 有可能对于某个数据, 一个计量经济学模型表现最好, 但如果对数据施加"微扰", 如增加或改变几个数据点, 则表现最佳的模型可能会变成另一个.这种现象, 在统计学也称为模型不确定性, 类似于经济理论的不确定性.更多讨论参见Breiman (2001).在存在模型不确定性条件下, 如何解释模型不确定性以及研究其对统计推断的影响, 是一个十分重要的课题.这不仅仅关系到模型的解释, 也关系到现代计量经济学的一些基本假设, 特别是模型唯一性假设, 即存在一个唯一的计量经济学模型正确刻画数据生成过程.在预测领域, 常常使用模型组合或模型平均来减少模型不确定性对预测的影响. ...
Testing for Smooth Structural Changes in Time Series Models via Nonparametric Regression
1
2012
... Chen and Hong(2012, 2016)提出了检验时间序列线性回归模型和GARCH模型是否存在缓慢结构变化的方法, 其中一个实证研究发现, 结构变化可能是资产收益率预测不准的一个重要原因.缓慢结构变化也可能产生伪长记忆现象(spurious long memory), 即经济金融时间序列数据的长记忆现象有可能系缓慢结构变化导致, 而非真正具有长记忆性质. Hong, Wang and Wang (2017)提出检验严平稳性和弱平稳性的方法, 并应用于检验宏观经济金融时间序列的平稳性.他们的研究表明, 差分后的宏观经济金融时间序列并不满足平稳性假设, 特别是其均值或方差随时间缓慢变化.差分或去趋势后的时间序列满足平稳性条件, 是非平稳时间序列计量经济学的一个基本假设. ...
Detecting for Smooth Structural Changes in GARCH Models
1
2016
... Chen and Hong(2012, 2016)提出了检验时间序列线性回归模型和GARCH模型是否存在缓慢结构变化的方法, 其中一个实证研究发现, 结构变化可能是资产收益率预测不准的一个重要原因.缓慢结构变化也可能产生伪长记忆现象(spurious long memory), 即经济金融时间序列数据的长记忆现象有可能系缓慢结构变化导致, 而非真正具有长记忆性质. Hong, Wang and Wang (2017)提出检验严平稳性和弱平稳性的方法, 并应用于检验宏观经济金融时间序列的平稳性.他们的研究表明, 差分后的宏观经济金融时间序列并不满足平稳性假设, 特别是其均值或方差随时间缓慢变化.差分或去趋势后的时间序列满足平稳性条件, 是非平稳时间序列计量经济学的一个基本假设. ...
Tests of Equality between Sets of Coefficients in Two Linear Regressions
1
1960
... 非平稳时间序列还可表现为结构变化(structure changes).结构变化通常分为两种, 一种是结构突变(structure breaks), 另一种是缓慢结构变化(smooth structural changes).存在结构突变的时间序列所产生的数据, 与单位根过程产生的数据有时看上去非常类似.对于结构突变, 自Chow (1960)提出针对单个已知变点(change point)的结构突变检验方法以来, 计量经济学家在这个方面取得了长足的发展, 特别是允许多个变点, 以及不知道变点的情形下如何检验是否存在结构突变, 并且建立了比较完善的大样本分布理论.可参考Andrews and Ploberger (1994, 1995), Bai and Perron (1998)等文献. ...
Maximum Likelihood Estimation and Model Selection for Locally Stationary Processes
1
1996
... 在时间序列分析中, 20年来出现了一个新的研究领域, 即局部平稳时间序列分析Dahlhaus (1996).所谓局部平稳时间序列, 是一种非平稳过程, 其参数值随时间缓慢变化, 因此, 在一小段时间内, 可以用一个平稳时间序列模型来近似, 但不同时期需要用不同的平稳时间序列模型来近似, 而这些不同模型的参数值是随时间连续缓慢改变的.高频数据可获得性的提高, 有助于渐近性结构变化的研究与局部平稳时间序列模型的应用. ...
Autoregressive Conditional Heteroscedasticity with Estimates of the Variance of United Kingdom Inflation
1
1982
... 在20世纪70年代, 石油危机, 浮动汇率制度以及美联储高利率政策, 导致世界经济充满不确定性.如何测度经济不确定性及其对经济金融市场的影响便成为当时一个迫切的重要问题.由于波动量化分析的重要性, 计量经济学家便提出各种类型的条件方差模型, 包括Engle (1982)的ARCH模型, Bollerslev (1986)的GARCH模型, Nelson (1991)的EGARCH, 以及Glosten et al. (1993)的门槛GARCH模型, 等等.这些模型并不是对整个条件概率分布建模, 它们只是对某个时间序列因变量的前二阶条件矩建模, 因此不能用最大似然法(MLE)估计未知模型参数.在实证研究中, 为了估计波动模型的未知参数, 一般需要假设额外的辅助条件, 从而推导出时间序列因变量的整个条件概率分布, 因此可用MLE方法估计模型参数.由于辅助假设可能不正确(研究者事先也知道这一点), 波动模型的似然函数因此可能误设, 这种方法被称为Quasi-MLE, 或QMLE.只要前二阶条件矩模型设定正确, QMLE仍可一致地估计模型参数, 但代价是其估计量的渐近方差将大于基于正确条件概率分布的MLE的渐近方差, 因此QMLE估计量比较不精确. QMLE渐近方差的结构, 与MLE的渐近方差结构有显著的不同, 它类似于线性回归模型中OLS估计量在存在条件异方差与自相关时的渐近方差结构, 因此必须使用似然函数误设时仍然适用的稳健方差公式及其一致估计量.而MLE的渐近方差, 其结构则类似于线性回归模型OLS估计量在存在条件同方差与零自相关时的渐近方差.与线性回归模型的$ F $-检验类似, 当似然函数误设时, 著名的似然比检验量不再适用, 因为它相当于使用了MLE的渐近方差公式.人们可以构建基于QMLE渐近方差公式的稳健统计检验量, 如稳健Wald检验和稳健拉格朗日因子检验.参见洪永淼(2011, 第9章). ...
Co-integration and Error Correction: Representation, Estimation, and Testing
1
1987
... 但是, 上述OLS理论在因变量和自变量时间序列为非平稳过程时, 一般不再适用. Granger and Newbold (1974)通过计算机模拟研究发现所谓伪回归(spurious regression)现象, 即两个互相独立的非平稳单位根时间序列, 如果将其中一个变量对另一个变量进行回归, 则回归系数估计量的$ t $-检验量在统计学上是显著的. Phillips (1986)从理论上给了严谨的解释. Nelson and Plosser (1982)通过应用Dicky-Fuller检验, 发现大部分宏观经济金融时间序列均是非平稳单位根过程.因此, 计量经济学家自20世纪80年代起便致力于发展非平稳时间序列计量经济学理论与方法, 包括Engle and Granger (1987)的协整理论, Phillips(1987a, 1987b)的单位根理论, 等等.对线性回归模型, 单位根时间序列大样本理论与平稳时间序列计量经济学理论完全不同.详细介绍可参考Hamilton (1994). ...
Autoregressive Conditional Duration: A New Model for Irregularly Spaced Transaction Data
1
1998
... 大数据产生了不少有别于传统数据的新型数据.例如, 每笔交易数据、日内资产价格数据、区间数据、函数数据等.这些新型数据呼唤新的计量经济学模型与方法.过去20年, 高频和超高频金融数据已经推动了高频金融计量学的快速发展.例如, Engle and Russell (1998)基于超高频每笔交易数据对价格变动之间的时间间隔进行建模, 提出一个autoregressive conditional duration (ACD)的新模型, 这个模型可利用超高频金融交易数据预测下一个价格变动的时间, 以及未来每个时间点价格变动的概率, 这些预测可用于量化投资交易策略设计及衍生品定价.另一方面, 利用日内资产收益率数据, 金融计量经济学家提出了新的估计每日波动率及每日资产收益率之间的协方差的方法, 这些高频波动率与协方差可用来改善投资组合管理和金融风险管理.参见Aaïit-Sahalia et al. (2010), Andersen et al. (2001, 2003, 2004), Barndorff-Nielsen and Shephard (2002, 2004), Noureldin, Shephard and Sheppard (2011), Shephard and Sheppard (2010). ...
Consistent Model Specification Tests: Omitted Variables and Semiparametric Functional Forms
1
1996
... 由于回归模型误设(即$ E(\varepsilon _t|X_t)\not = 0 $)影响到参数的经济解释的有效性以及参数估计的一致性, Hausman (1978)提出了一个检验回归模型误设的方法, 被称为Hausman检验. White (1981), Newey (1985), Tauchen (1985)和White (1990)将此方法拓展到以矩条件为基础的更一般的模型设定检验, 称为矩检验或$ m $-检验.这些检验均不是一致检验(consistent tests), 即无法检测出一些误设模型, 甚至在大样本时也是如此. Bierens(1982, 1990), Hong and White (1995), Fan and Li (1996), Hong and Lee (2013)等采用非参数等方法提出了线性或非线性回归模型设定的检验方法.当样本容量足够大时, 这些方法可以检测任何形式的模型误设, 因此是一致检验. ...
Nowcasting: The Real-time Informational Content of Macroeconomic Data
1
2008
... 大数据也使得构建高频化的重要经济指数或经济变量成为可能.例如, 宏观经济物价指数, CPI或PPI, 目前抽样最高频率是月度数据.通过互联网消费品和生产品价格信息, 完全有可能借助人工智能方法构建每周甚至每天的消费者物价指数和生产者物价指数.这些高频宏观经济变量对研究宏观经济的当期或近期的运行状况, 具有重要的现实意义.可以预料, 在不远的将来, 高频宏观经济学将有可能应运而生, 这样的新兴学科能够更好地研究宏观经济和金融市场之间的互动关系.事实上, 大数据已催生了实时预测(nowcasting)计量经济学. "实时预测"这个术语源于气象学, 通常是指2小时之内的短期天气预测.计量经济学的"实时预测", 是指利用实时大数据预测当季GDP及其它宏观经济指标.由于季度GDP的公布时间有较长的滞后期, 实时预测当季GDP等重要宏观经济指标, 对监控宏观经济运行具有重要意义.不少国家的中央银行已开始对各自国家的GDP进行实时预测.有关实时预测的更多讨论论参见Giannone et al. (2008). (Wang et al. (2005))提出了一个TEI@I预测方法论, 将文本挖掘、计量建模与人工智能等方法综合集成, 解决了将统计历史数据与异质数据、定性与定量分析相结合的难题, 显著地提升了样本外预测精度. ...
On the Relation between the Expected Value and the Volatility of the Nominal Excess Return on Stocks
1
1993
... 在20世纪70年代, 石油危机, 浮动汇率制度以及美联储高利率政策, 导致世界经济充满不确定性.如何测度经济不确定性及其对经济金融市场的影响便成为当时一个迫切的重要问题.由于波动量化分析的重要性, 计量经济学家便提出各种类型的条件方差模型, 包括Engle (1982)的ARCH模型, Bollerslev (1986)的GARCH模型, Nelson (1991)的EGARCH, 以及Glosten et al. (1993)的门槛GARCH模型, 等等.这些模型并不是对整个条件概率分布建模, 它们只是对某个时间序列因变量的前二阶条件矩建模, 因此不能用最大似然法(MLE)估计未知模型参数.在实证研究中, 为了估计波动模型的未知参数, 一般需要假设额外的辅助条件, 从而推导出时间序列因变量的整个条件概率分布, 因此可用MLE方法估计模型参数.由于辅助假设可能不正确(研究者事先也知道这一点), 波动模型的似然函数因此可能误设, 这种方法被称为Quasi-MLE, 或QMLE.只要前二阶条件矩模型设定正确, QMLE仍可一致地估计模型参数, 但代价是其估计量的渐近方差将大于基于正确条件概率分布的MLE的渐近方差, 因此QMLE估计量比较不精确. QMLE渐近方差的结构, 与MLE的渐近方差结构有显著的不同, 它类似于线性回归模型中OLS估计量在存在条件异方差与自相关时的渐近方差结构, 因此必须使用似然函数误设时仍然适用的稳健方差公式及其一致估计量.而MLE的渐近方差, 其结构则类似于线性回归模型OLS估计量在存在条件同方差与零自相关时的渐近方差.与线性回归模型的$ F $-检验类似, 当似然函数误设时, 著名的似然比检验量不再适用, 因为它相当于使用了MLE的渐近方差公式.人们可以构建基于QMLE渐近方差公式的稳健统计检验量, 如稳健Wald检验和稳健拉格朗日因子检验.参见洪永淼(2011, 第9章). ...
Spurious Regressions in Econometrics
1
1974
... 但是, 上述OLS理论在因变量和自变量时间序列为非平稳过程时, 一般不再适用. Granger and Newbold (1974)通过计算机模拟研究发现所谓伪回归(spurious regression)现象, 即两个互相独立的非平稳单位根时间序列, 如果将其中一个变量对另一个变量进行回归, 则回归系数估计量的$ t $-检验量在统计学上是显著的. Phillips (1986)从理论上给了严谨的解释. Nelson and Plosser (1982)通过应用Dicky-Fuller检验, 发现大部分宏观经济金融时间序列均是非平稳单位根过程.因此, 计量经济学家自20世纪80年代起便致力于发展非平稳时间序列计量经济学理论与方法, 包括Engle and Granger (1987)的协整理论, Phillips(1987a, 1987b)的单位根理论, 等等.对线性回归模型, 单位根时间序列大样本理论与平稳时间序列计量经济学理论完全不同.详细介绍可参考Hamilton (1994). ...
1
1992
... 大样本分布在实证应用中简单方便, 但是在有限样本特别是小样本条件下, 参数估计量和检验统计量的渐近分布与真实的未知的有限样本分布可能相差甚远, 这在统计推断时将产生很大的Type I和Type II误差, 导致推断结论不可靠.为了改进渐近分布在有限样本条件下的近似程度, 计量经济学家和统计学家(如Klein and Spady (1993), Phillips(1977a, 1997b, 1977c), Ullah (1990))曾经致力于发展有限样本特别是小样本条件下的渐近理论, 其中包括所谓的Edgeworth展开和Saddle Point近似.但是, 这些方法相当复杂, 在实际中没有得到广泛的应用.近年来, 随着计算机技术的快速进步, 计量经济学的一个重要发展是Bootstrap方法的发展及其广泛应用. Bootstrap方法的理论基础也是Edgeworth展开, 但它巧妙地利用计算机对观测数据进行多次重复抽样而产生的随机样本, 大大改进了对参数估计量和检验统计量的真实有限样本分布的近似程度, 在实证研究中可提供更为可靠的统计推断结论, 因此得到了广泛的应用.更多讨论可参考Hall (1992)和Horowitz (2001). ...
1
1994
... 但是, 上述OLS理论在因变量和自变量时间序列为非平稳过程时, 一般不再适用. Granger and Newbold (1974)通过计算机模拟研究发现所谓伪回归(spurious regression)现象, 即两个互相独立的非平稳单位根时间序列, 如果将其中一个变量对另一个变量进行回归, 则回归系数估计量的$ t $-检验量在统计学上是显著的. Phillips (1986)从理论上给了严谨的解释. Nelson and Plosser (1982)通过应用Dicky-Fuller检验, 发现大部分宏观经济金融时间序列均是非平稳单位根过程.因此, 计量经济学家自20世纪80年代起便致力于发展非平稳时间序列计量经济学理论与方法, 包括Engle and Granger (1987)的协整理论, Phillips(1987a, 1987b)的单位根理论, 等等.对线性回归模型, 单位根时间序列大样本理论与平稳时间序列计量经济学理论完全不同.详细介绍可参考Hamilton (1994). ...
1
... 大数据产生了一类被称为函数数据的新型数据, 如每天温度变化曲线, 上市公司每天股票价格曲线, 等等.面板数据是函数数据的一个特例.这类数据在统计学上催生了一组新模型, 叫函数数据模型(functional data models) (参见Müller (2005), Müller and Stadtmuller (2005), Ramsay and Silverman (2002, 2005)).另一类新型数据是区间数据(interval-valued data), 即由某个变量的最高值和最低值所组成的数的集合.传统数据大多为点数据(point-valued data).相对点数据来说, 区间数据包含着更多信息, 但长期以来没有得到有效利用.区间数据并不少见, 例如每天的最高温最低温, 高血压低血压, 每天股票最高价最低价, 金融资产的买卖差价(bid-ask spread), 等等.区间数据是所谓符号数据(symbolic data)的一个特例. Han, Hong and Wang (2017)率先提出了基于区间数据的autoregressive conditional interval (ACI)模型, 利用历史区间数据预测将来区间大小.这个模型可视为时间序列分析中ARMA模型的区间版本.也参见Han et al. (2016)和Sun et al. (2018). ...
1
... 大数据产生了一类被称为函数数据的新型数据, 如每天温度变化曲线, 上市公司每天股票价格曲线, 等等.面板数据是函数数据的一个特例.这类数据在统计学上催生了一组新模型, 叫函数数据模型(functional data models) (参见Müller (2005), Müller and Stadtmuller (2005), Ramsay and Silverman (2002, 2005)).另一类新型数据是区间数据(interval-valued data), 即由某个变量的最高值和最低值所组成的数的集合.传统数据大多为点数据(point-valued data).相对点数据来说, 区间数据包含着更多信息, 但长期以来没有得到有效利用.区间数据并不少见, 例如每天的最高温最低温, 高血压低血压, 每天股票最高价最低价, 金融资产的买卖差价(bid-ask spread), 等等.区间数据是所谓符号数据(symbolic data)的一个特例. Han, Hong and Wang (2017)率先提出了基于区间数据的autoregressive conditional interval (ACI)模型, 利用历史区间数据预测将来区间大小.这个模型可视为时间序列分析中ARMA模型的区间版本.也参见Han et al. (2016)和Sun et al. (2018). ...
Large Sample Properties of Generalized Method of Moments Estimators
1
1982
... 另一类计量经济学模型(包括很多线性与非线性模型)由一个或一组总体矩条件来刻画.总体矩条件一般是从经济理论推出, 例如, 宏观经济学理性预期理论意味着随机资产定价误差相对于经济主体的历史信息的条件均值为零, 即每个时期均不存在系统定价偏差.根据这个性质, 可选择一些合适的工具变量, 构造一组总体矩, 当其在真实参数值处取值时, 总体矩为零.由于不知道经济变量的整体条件分布, 无法使用MLE.广义矩方法(GMM)估计的基本思想, 就是构建一组样本矩, 其中样本矩的维度不小于未知参数的维度, 然后选择让样本矩尽量接近总体矩的参数值, 作为未知参数值的估计量.在数学上, GMM估计量使样本矩的一个加权二次项最小化, 其中的权重一般会影响GMM估计量的精确度.一个渐近最优权重是样本矩的方差-协方差估计量, 其作用与GLS方法类似, 可消除样本矩的异方差以及样本矩之间的相关性, 从而获得渐近最优GMM估计.这个方法由Hansen (1982)提出. GMM可视为是对统计学经典矩估计方法的拓展, 但它是为了估计与检验经济学模型, 特别是理性预期模型而提出的. GMM应用非常广泛, 大多数计量经济学估计量均可视为其特例, 包括OLS和二阶段最小二乘法(2SLS). QMLE和GMM是估计非线性计量经济学模型的两个最常用方法. ...
1
2015
... 大数据在很多情况下样本容量相当大, 特别是高频数据.如果数据样本容量远大于大数据中潜在解释或预测变量的维数, 这类数据称为"高大数据(Tall Big Data)".与传统数据相比, 高大数据有助于挖掘大数据中变量之间的复杂关系, 特别是非线性关系.因此非线性计量经济学模型在大数据时代可望有更广的发展与应用空间.用于大数据分析的很多机器学习方法, 例如决策树, 随机森林, 人工神经网络, 深度学习等, 都是非线性计算机算法, 很大程度上类似于统计学的非参数分析.以White为代表的计量经济学家, 构建了人工神经网络非参数建模的理论与方法(参见White (1992)).人工神经网络模型曾被广泛应用于经济金融数据的实证研究中.事实上, 大数据最重要的特征并不在于样本容量大, 而更在于拥有很多潜在的解释或预测变量, 甚至有可能出现潜在解释或预测变量的维数超过样本容量, 这称为"胖大数据(Fat Big Data)"或高维大数据.高维解释变量提供了变量选择或模型选择的很多可能性.对高维大数据, 很多情形下可能只有少数未知的解释变量具有重要的解释或预测能力.机器学习已发明不少计算机算法(如决策树、随机森林等), 来选择重要解释或预测变量(参见Varian (2014)的介绍与实例).如何识别、选择重要解释变量并估计其影响, 需要借助机器学习的方法与工具, 并与计量经济学理论结合起来.这方面的一个典型案例是从高维数据中选择重要变量的LASSO方法, 这是结合机器学习的一个"统计学习"方法(参见Hastie, Tibshirani and Wainwright (2015)).基于高维大数据, 可结合机器学习方法进行研究的计量经济学理论问题中, 包括:如何在大量潜在工具变量中寻找最显著的工具变量, 以达到最佳工具变量估计效果, 从而解决弱工具变量带来的困扰; 如何在大量经济领先指数中(其个数可能超过样本容量), 识别、选择其中最具有预测能力的领先指数, 达到最佳样本外预测效果; 如何在构建资本资产定价模型时, 从大量潜在的风险因子中, 分别识别每个资产的少数几个重要风险因子并估计其影响, 以及如何在高维非参数函数估计中(特别是存在多个解释变量时), 运用机器学习方法降低非参数函数估计量的维度, 以得到更好的估计效果, 等等. ...
Specification Tests in Econometrics
1
1978
... 由于回归模型误设(即$ E(\varepsilon _t|X_t)\not = 0 $)影响到参数的经济解释的有效性以及参数估计的一致性, Hausman (1978)提出了一个检验回归模型误设的方法, 被称为Hausman检验. White (1981), Newey (1985), Tauchen (1985)和White (1990)将此方法拓展到以矩条件为基础的更一般的模型设定检验, 称为矩检验或$ m $-检验.这些检验均不是一致检验(consistent tests), 即无法检测出一些误设模型, 甚至在大样本时也是如此. Bierens(1982, 1990), Hong and White (1995), Fan and Li (1996), Hong and Lee (2013)等采用非参数等方法提出了线性或非线性回归模型设定的检验方法.当样本容量足够大时, 这些方法可以检测任何形式的模型误设, 因此是一致检验. ...
A Loss Function Approach to Model Specification Testing and Its Relative Efficiency
1
2013
... 由于回归模型误设(即$ E(\varepsilon _t|X_t)\not = 0 $)影响到参数的经济解释的有效性以及参数估计的一致性, Hausman (1978)提出了一个检验回归模型误设的方法, 被称为Hausman检验. White (1981), Newey (1985), Tauchen (1985)和White (1990)将此方法拓展到以矩条件为基础的更一般的模型设定检验, 称为矩检验或$ m $-检验.这些检验均不是一致检验(consistent tests), 即无法检测出一些误设模型, 甚至在大样本时也是如此. Bierens(1982, 1990), Hong and White (1995), Fan and Li (1996), Hong and Lee (2013)等采用非参数等方法提出了线性或非线性回归模型设定的检验方法.当样本容量足够大时, 这些方法可以检测任何形式的模型误设, 因此是一致检验. ...
Testing Strict Stationarity with Applications to Macroeconomic Time Series
1
2017
... Chen and Hong(2012, 2016)提出了检验时间序列线性回归模型和GARCH模型是否存在缓慢结构变化的方法, 其中一个实证研究发现, 结构变化可能是资产收益率预测不准的一个重要原因.缓慢结构变化也可能产生伪长记忆现象(spurious long memory), 即经济金融时间序列数据的长记忆现象有可能系缓慢结构变化导致, 而非真正具有长记忆性质. Hong, Wang and Wang (2017)提出检验严平稳性和弱平稳性的方法, 并应用于检验宏观经济金融时间序列的平稳性.他们的研究表明, 差分后的宏观经济金融时间序列并不满足平稳性假设, 特别是其均值或方差随时间缓慢变化.差分或去趋势后的时间序列满足平稳性条件, 是非平稳时间序列计量经济学的一个基本假设. ...
Constistent Specification Testing via Nonparametric Series Regression
1
1995
... 由于回归模型误设(即$ E(\varepsilon _t|X_t)\not = 0 $)影响到参数的经济解释的有效性以及参数估计的一致性, Hausman (1978)提出了一个检验回归模型误设的方法, 被称为Hausman检验. White (1981), Newey (1985), Tauchen (1985)和White (1990)将此方法拓展到以矩条件为基础的更一般的模型设定检验, 称为矩检验或$ m $-检验.这些检验均不是一致检验(consistent tests), 即无法检测出一些误设模型, 甚至在大样本时也是如此. Bierens(1982, 1990), Hong and White (1995), Fan and Li (1996), Hong and Lee (2013)等采用非参数等方法提出了线性或非线性回归模型设定的检验方法.当样本容量足够大时, 这些方法可以检测任何形式的模型误设, 因此是一致检验. ...
A Panel Data Approach for Program Evaluation: Measuring the Benefits of Political and Economic Integration of Hong Kong with Mainland China
1
2011
... 由于经济现象与经济观测数据的非实验性特点, 人们不能通过控制其他变量取值不变, 利用实验手段研究某个或某些经济变量的变化是否引起因变量的变化.因此, 如何识别因果关系是经济实证研究的一个重要难点, 也是现代计量经济学研究的一个热点问题.微观计量经济学20年来的一个研究热点是所谓的"处理效应(treatment effect)", 这个领域的研究, 借鉴了统计学特别是生物/医学统计学随机试验(randomized experiments)的思想与方法, 发展出了一套识别、估计经济因果关系的计量经济学理论与方法, 诞生了政策评估计量经济学(econometrics of program evaluation)这个新兴学科, 可用于在非实验性条件下通过估计虚拟事实来量化评估各种经济社会公共政策.定量评估一个经济政策的效应, 其基本思想是在同等条件下, 比较实施该政策的结果与假设没有实施这项政策的虚拟结果, 两者之差就是该项政策的效应.这里的关键与难点是在政策已实施的条件下, 如何准确估计假设政策没有实施时的虚拟结果.不少方法, 包括双差分(difference-in-difference, DID), 回归断点设计(regression discontinuity design, RDD), 倾向评分匹配(propensity score matching, PSM), 面板数据评估方法(panel data approach to program evaluation)等, 已广泛应用于各种政策和项目评估(参见Imbens and Wooldridge (2009)的综述文章).例如, Hsiao et al. (2011)提出一个基于面板数据的政策评估方法, 并应用于评估香港与内地2002年签定的"关于建立更紧密经贸关系的安排(CEPA)"对香港经济增长的影响.另一方面, 近30年兴起的实验经济学, 通过控制实验室条件研究经济主体经济、心理行为, 也是发现经济因果关系的一种新方法与新学科.此外, 还有"田野研究(field study)", 这是一种准实验方法, 在现实社会经济环境下, 人为引入一些实验控制手段与方法, 跟踪研究经济变量之间的因果关系. ...
Recent Developments in the Econometrics of Program Evaluation
1
2009
... 由于经济现象与经济观测数据的非实验性特点, 人们不能通过控制其他变量取值不变, 利用实验手段研究某个或某些经济变量的变化是否引起因变量的变化.因此, 如何识别因果关系是经济实证研究的一个重要难点, 也是现代计量经济学研究的一个热点问题.微观计量经济学20年来的一个研究热点是所谓的"处理效应(treatment effect)", 这个领域的研究, 借鉴了统计学特别是生物/医学统计学随机试验(randomized experiments)的思想与方法, 发展出了一套识别、估计经济因果关系的计量经济学理论与方法, 诞生了政策评估计量经济学(econometrics of program evaluation)这个新兴学科, 可用于在非实验性条件下通过估计虚拟事实来量化评估各种经济社会公共政策.定量评估一个经济政策的效应, 其基本思想是在同等条件下, 比较实施该政策的结果与假设没有实施这项政策的虚拟结果, 两者之差就是该项政策的效应.这里的关键与难点是在政策已实施的条件下, 如何准确估计假设政策没有实施时的虚拟结果.不少方法, 包括双差分(difference-in-difference, DID), 回归断点设计(regression discontinuity design, RDD), 倾向评分匹配(propensity score matching, PSM), 面板数据评估方法(panel data approach to program evaluation)等, 已广泛应用于各种政策和项目评估(参见Imbens and Wooldridge (2009)的综述文章).例如, Hsiao et al. (2011)提出一个基于面板数据的政策评估方法, 并应用于评估香港与内地2002年签定的"关于建立更紧密经贸关系的安排(CEPA)"对香港经济增长的影响.另一方面, 近30年兴起的实验经济学, 通过控制实验室条件研究经济主体经济、心理行为, 也是发现经济因果关系的一种新方法与新学科.此外, 还有"田野研究(field study)", 这是一种准实验方法, 在现实社会经济环境下, 人为引入一些实验控制手段与方法, 跟踪研究经济变量之间的因果关系. ...
Efficient Tests for Normality, Homoscedasticity and Serial Independence of Regression Residuals
1
1980
... 但是, 大多数经济金融数据的一个典型特征经验事实是非正态分布, 具有厚尾特点, 其主要标志是大多数经济金融数据的峰度均大于3.这样, 建立在随机样本正态分布假设基础上的有限样本经典抽样理论不再适用.计量经济学家因此提出了不少检验线性回归模型残差是否服从正态分布的检验方法, 以便判断经典线性回归模型理论是否适用, 其中一个著名的残差正态性检验是Jarque and Bera (1980)检验.现代计量经济学的一个主要发展就是放弃随机扰动项的正态分布假设, 运用渐近理论与方法(特别是大数定律与中心极限定理), 推导出大样本(即$ n\to\infty $)条件下OLS估计量及其他估计量仍然是未知参数的一致估计, 并且推导出这些估计量的渐近正态分布.从大样本分析中可以看到, 即使随机扰动项不服从正态分布, 在独立同分布的随机样本条件下, 只要随机扰动项存在条件同方差, 则当样本容量很大时, 经典$ t $-检验与$ F $-检验还是适用的, 而OLS估计量也是BLUE.换言之, 在存在条件同方差的条件下, 经典OLS理论在样本容量足够大时, 照样是适用的.这个结论, 当随机扰动项是鞅差分过程且满足条件同方差时, 对平稳时间序列的随机样本也是适用的.见文献洪永淼(2011, 第4章和第5章) ...
An Efficient Semiparametric Estimator for Binary Response Models
1
1993
... 大样本分布在实证应用中简单方便, 但是在有限样本特别是小样本条件下, 参数估计量和检验统计量的渐近分布与真实的未知的有限样本分布可能相差甚远, 这在统计推断时将产生很大的Type I和Type II误差, 导致推断结论不可靠.为了改进渐近分布在有限样本条件下的近似程度, 计量经济学家和统计学家(如Klein and Spady (1993), Phillips(1977a, 1997b, 1977c), Ullah (1990))曾经致力于发展有限样本特别是小样本条件下的渐近理论, 其中包括所谓的Edgeworth展开和Saddle Point近似.但是, 这些方法相当复杂, 在实际中没有得到广泛的应用.近年来, 随着计算机技术的快速进步, 计量经济学的一个重要发展是Bootstrap方法的发展及其广泛应用. Bootstrap方法的理论基础也是Edgeworth展开, 但它巧妙地利用计算机对观测数据进行多次重复抽样而产生的随机样本, 大大改进了对参数估计量和检验统计量的真实有限样本分布的近似程度, 在实证研究中可提供更为可靠的统计推断结论, 因此得到了广泛的应用.更多讨论可参考Hall (1992)和Horowitz (2001). ...
Asymptotic Theory for the GARCH(1, 1) Quasi-maximum Likelihood Estimator
1
1994
... 模型误设还可能出现在以下情形.一个线性回归模型, 如果观测数据存在若干缺陷, 如存在删失数据(censored data)或截断数据(truncated data), 那么OLS估计量便不是真实参数值的一致估计.在这个情况下, 可增加辅助假设, 例如假设随机扰动项服从正态分布, 然后用MLE方法估计未知模型参数.由于数据存在缺陷, 因变量与自变量之间的关系事实上已变为非线性关系, 但是MLE可以将原始线性回归模型的参数一致估计出来.在这里, 辅助假设是否正确, 会影响线性回归模型参数估计的一致性.另一方面, 波动模型是对因变量的前二阶条件矩建模.在波动模型正确设定的情况下, 我们并不知道因变量的条件概率分布, 此时通常也需要增加辅助假设(如假设标准化随机扰动项服从标准正态分布), 以便推导出因变量的条件概率分布, 从而使用MLE方法估计未知模型参数.由于辅助假设可能是错误的, 条件分布因此可能误设, 这种方法称为QMLE.但是, 如果条件均值和条件方差仍然正确设定, 则即使条件分布(即条件高阶矩)误设, QMLE仍可一致估计条件均值和条件方差模型中的未知参数值, 这与上述线性回归模型因数据缺陷而需要辅助假设的情形不同.但是, 模型误设将影响QMLE估计量的方差或精确度, 因此需要使用在概率分布模型误设时也适用的稳健性渐近方差公式.参见Bollerslev and Wooldridge (1992), Lee and Hansen (1994), Lumsdaine (1996). ...
1
... 除了结构突变之外, 另一种结构变化是缓慢结构变化, 即模型参数随时间缓慢变化.一个例子是所谓的时变性STAR模型.趋势平稳过程也是一个例子, 如果其均值是时间的平滑函数的话.现实经济由于人口偏好、技术进步、政策变化、体制改革、外部条件变动等原因, 经常导致经济行为与经济结构发生变化.此外, 由于经济主体可以理性预测或感知政策等变化, 并适应性地改变其行为, 这也会导致经济结构发生变化, 这就是著名的卢卡斯批判(Lucas (1976)).但是, 即使上述因素突然发生, 由于习惯与调整成本等原因, 经济主体的行为及经济结构也可能会缓慢地变化.甚至即使经济个体的行为发生了突变, 如果个体行为突变的时间点不同, 则加总的宏观经济序列也会出现缓慢变化态势.总之, 很多情形下, 缓慢结构变化可能更接近经济现实.一个典型案例是美国宏观经济波动的"大缓和(Great Moderation)"现象.美国自20世纪80年代中期以来, 宏观经济波动, 特别是GDP增长率和通货膨胀率的波动, 呈现出一个逐渐缩小的趋势, 这称为"大缓和"现象(参见Bernanke (2004)).其实, 中国宏观经济也存在类似的"大缓和"现象, 中国的GDP增长率和通货膨胀率, 分别从1992年和1999年起出现了波动逐渐变小的趋势(参见Sun, Hong and Wang (2019)).但是, 对中国宏观经济的"大缓和"现象, 似乎至今还没有人深入研究其原因. ...
Consistency and Asymptotic Normality of the Quasi-maximum Likelihood Estimator in IGARCH(1, 1) and Covariance Stationary GARCH(1, 1) Models
1
1996
... 模型误设还可能出现在以下情形.一个线性回归模型, 如果观测数据存在若干缺陷, 如存在删失数据(censored data)或截断数据(truncated data), 那么OLS估计量便不是真实参数值的一致估计.在这个情况下, 可增加辅助假设, 例如假设随机扰动项服从正态分布, 然后用MLE方法估计未知模型参数.由于数据存在缺陷, 因变量与自变量之间的关系事实上已变为非线性关系, 但是MLE可以将原始线性回归模型的参数一致估计出来.在这里, 辅助假设是否正确, 会影响线性回归模型参数估计的一致性.另一方面, 波动模型是对因变量的前二阶条件矩建模.在波动模型正确设定的情况下, 我们并不知道因变量的条件概率分布, 此时通常也需要增加辅助假设(如假设标准化随机扰动项服从标准正态分布), 以便推导出因变量的条件概率分布, 从而使用MLE方法估计未知模型参数.由于辅助假设可能是错误的, 条件分布因此可能误设, 这种方法称为QMLE.但是, 如果条件均值和条件方差仍然正确设定, 则即使条件分布(即条件高阶矩)误设, QMLE仍可一致估计条件均值和条件方差模型中的未知参数值, 这与上述线性回归模型因数据缺陷而需要辅助假设的情形不同.但是, 模型误设将影响QMLE估计量的方差或精确度, 因此需要使用在概率分布模型误设时也适用的稳健性渐近方差公式.参见Bollerslev and Wooldridge (1992), Lee and Hansen (1994), Lumsdaine (1996). ...
Functional Modelling and Classification of Longitudinal Data
2
2005
... 大数据产生了一类被称为函数数据的新型数据, 如每天温度变化曲线, 上市公司每天股票价格曲线, 等等.面板数据是函数数据的一个特例.这类数据在统计学上催生了一组新模型, 叫函数数据模型(functional data models) (参见Müller (2005), Müller and Stadtmuller (2005), Ramsay and Silverman (2002, 2005)).另一类新型数据是区间数据(interval-valued data), 即由某个变量的最高值和最低值所组成的数的集合.传统数据大多为点数据(point-valued data).相对点数据来说, 区间数据包含着更多信息, 但长期以来没有得到有效利用.区间数据并不少见, 例如每天的最高温最低温, 高血压低血压, 每天股票最高价最低价, 金融资产的买卖差价(bid-ask spread), 等等.区间数据是所谓符号数据(symbolic data)的一个特例. Han, Hong and Wang (2017)率先提出了基于区间数据的autoregressive conditional interval (ACI)模型, 利用历史区间数据预测将来区间大小.这个模型可视为时间序列分析中ARMA模型的区间版本.也参见Han et al. (2016)和Sun et al. (2018). ...
... , Müller and Stadtmuller (2005), Ramsay and Silverman (2002, 2005)).另一类新型数据是区间数据(interval-valued data), 即由某个变量的最高值和最低值所组成的数的集合.传统数据大多为点数据(point-valued data).相对点数据来说, 区间数据包含着更多信息, 但长期以来没有得到有效利用.区间数据并不少见, 例如每天的最高温最低温, 高血压低血压, 每天股票最高价最低价, 金融资产的买卖差价(bid-ask spread), 等等.区间数据是所谓符号数据(symbolic data)的一个特例. Han, Hong and Wang (2017)率先提出了基于区间数据的autoregressive conditional interval (ACI)模型, 利用历史区间数据预测将来区间大小.这个模型可视为时间序列分析中ARMA模型的区间版本.也参见Han et al. (2016)和Sun et al. (2018). ...
Generalized Functional Linear Models
0
2005
Efficient Capital Markets: A Review of Theory and Empirical Work
1
1970
... 经济理论的作用还体现在建模时解释变量的选择上.选择哪些重要经济解释变量, 除了研究经验及应用计量经济学、统计学与人工智能方法之外, 还需要依靠经济理论, 因为经济理论可帮助判断经济变量之间的因果关系.在模型设定正确时, 经济理论还可为模型参数赋予经济涵义, 增强模型的可解释性.对计量经济学模型本身以及实证分析所得到的统计结果, 从经济学视角进行解释, 是至关重要的.在识别因果关系时, 单凭计量经济学、统计学与人工智能方法是不够的, 需要借助经济理论.那么, 如何检验经济理论是否能够解释所观测的经济现象?换言之, 如何检验经济理论的有效性或正确性?一个基本思想是将经济理论或经济假说转变为对计量经济学模型的一种约束, 然后通过数据和计量经济学方法检验这种约束是否正确.值得强调的是, 在这个分析过程中, 一般需要增加一些辅助假设(例如设定模型的函数形式).因此, 当拒绝原假设时, 必须区分究竟是因为经济理论不成立, 还是因为辅助假设不成立.一般说来, 大多数经济理论或经济假说均为model-free, 即不依赖于某个具体形式的计量经济学模型, 当我们将经济理论或经济假说转变为对所选择的计量经济学模型的统计约束时, 经济假说与统计假说两者之间会存在差别.换言之, 两个假说并不等价, 此时在解释统计假说的检验结果时需要非常谨慎.以检验市场有效性为例, 如果资产收益率历史信息对将来资产收益的条件均值没有任何预测能力, 我们称弱式有效市场假说成立(Malkiel and Fama (1970)).这个经济假说是一个model-free的假说.现在假设选择一个$ p $阶线性自回归模型检验这个经济假说.当弱式有效性假说成立时, 自回归模型没有预测能力, 所有自回归系数当为零.如果发现至少有一个自回归系数不为零, 那么弱式有效性假说不成立.但是, 如果"所有自回归系数为零"这个统计假说没有被拒绝, 我们能否说弱式有效性假说成立?不能.这是因为线性自回归模型只是预测资产收益率的众多模型中的一个而已.所有自回归系数为零, 只能说明线性自回归模型没有预测能力, 不能说明资产收益率历史数据对未来资产收益率没有预测能力.因此, 如果所有自回归系数为零, 我们只能说没有发现拒绝弱式有效性假说的证据.总之, 需要注意经济假说和统计假说的差别, 并且区分数据证据和模型证据, 两者并不等价. ...
Trends and Random Walks in Macroeconmic Time Series: Some Evidence and Implications
1
1982
... 但是, 上述OLS理论在因变量和自变量时间序列为非平稳过程时, 一般不再适用. Granger and Newbold (1974)通过计算机模拟研究发现所谓伪回归(spurious regression)现象, 即两个互相独立的非平稳单位根时间序列, 如果将其中一个变量对另一个变量进行回归, 则回归系数估计量的$ t $-检验量在统计学上是显著的. Phillips (1986)从理论上给了严谨的解释. Nelson and Plosser (1982)通过应用Dicky-Fuller检验, 发现大部分宏观经济金融时间序列均是非平稳单位根过程.因此, 计量经济学家自20世纪80年代起便致力于发展非平稳时间序列计量经济学理论与方法, 包括Engle and Granger (1987)的协整理论, Phillips(1987a, 1987b)的单位根理论, 等等.对线性回归模型, 单位根时间序列大样本理论与平稳时间序列计量经济学理论完全不同.详细介绍可参考Hamilton (1994). ...
Conditional Heteroskedasticity in Asset Returns: A New Approach
1
1991
... 在20世纪70年代, 石油危机, 浮动汇率制度以及美联储高利率政策, 导致世界经济充满不确定性.如何测度经济不确定性及其对经济金融市场的影响便成为当时一个迫切的重要问题.由于波动量化分析的重要性, 计量经济学家便提出各种类型的条件方差模型, 包括Engle (1982)的ARCH模型, Bollerslev (1986)的GARCH模型, Nelson (1991)的EGARCH, 以及Glosten et al. (1993)的门槛GARCH模型, 等等.这些模型并不是对整个条件概率分布建模, 它们只是对某个时间序列因变量的前二阶条件矩建模, 因此不能用最大似然法(MLE)估计未知模型参数.在实证研究中, 为了估计波动模型的未知参数, 一般需要假设额外的辅助条件, 从而推导出时间序列因变量的整个条件概率分布, 因此可用MLE方法估计模型参数.由于辅助假设可能不正确(研究者事先也知道这一点), 波动模型的似然函数因此可能误设, 这种方法被称为Quasi-MLE, 或QMLE.只要前二阶条件矩模型设定正确, QMLE仍可一致地估计模型参数, 但代价是其估计量的渐近方差将大于基于正确条件概率分布的MLE的渐近方差, 因此QMLE估计量比较不精确. QMLE渐近方差的结构, 与MLE的渐近方差结构有显著的不同, 它类似于线性回归模型中OLS估计量在存在条件异方差与自相关时的渐近方差结构, 因此必须使用似然函数误设时仍然适用的稳健方差公式及其一致估计量.而MLE的渐近方差, 其结构则类似于线性回归模型OLS估计量在存在条件同方差与零自相关时的渐近方差.与线性回归模型的$ F $-检验类似, 当似然函数误设时, 著名的似然比检验量不再适用, 因为它相当于使用了MLE的渐近方差公式.人们可以构建基于QMLE渐近方差公式的稳健统计检验量, 如稳健Wald检验和稳健拉格朗日因子检验.参见洪永淼(2011, 第9章). ...
Generalized Method of Moments Specification Testing
1
1985
... 由于回归模型误设(即$ E(\varepsilon _t|X_t)\not = 0 $)影响到参数的经济解释的有效性以及参数估计的一致性, Hausman (1978)提出了一个检验回归模型误设的方法, 被称为Hausman检验. White (1981), Newey (1985), Tauchen (1985)和White (1990)将此方法拓展到以矩条件为基础的更一般的模型设定检验, 称为矩检验或$ m $-检验.这些检验均不是一致检验(consistent tests), 即无法检测出一些误设模型, 甚至在大样本时也是如此. Bierens(1982, 1990), Hong and White (1995), Fan and Li (1996), Hong and Lee (2013)等采用非参数等方法提出了线性或非线性回归模型设定的检验方法.当样本容量足够大时, 这些方法可以检测任何形式的模型误设, 因此是一致检验. ...
A Simple, Positive Semi-definite, Heteroskedasticity and Autocorrelation Consistent Covariance Matrix
0
1987
Automatic Lag Selection in Covariance Matrix Estimation
0
1994
Multivariate High-frequency-based Volatility (HEAVY) Models
1
2011
... 大数据产生了不少有别于传统数据的新型数据.例如, 每笔交易数据、日内资产价格数据、区间数据、函数数据等.这些新型数据呼唤新的计量经济学模型与方法.过去20年, 高频和超高频金融数据已经推动了高频金融计量学的快速发展.例如, Engle and Russell (1998)基于超高频每笔交易数据对价格变动之间的时间间隔进行建模, 提出一个autoregressive conditional duration (ACD)的新模型, 这个模型可利用超高频金融交易数据预测下一个价格变动的时间, 以及未来每个时间点价格变动的概率, 这些预测可用于量化投资交易策略设计及衍生品定价.另一方面, 利用日内资产收益率数据, 金融计量经济学家提出了新的估计每日波动率及每日资产收益率之间的协方差的方法, 这些高频波动率与协方差可用来改善投资组合管理和金融风险管理.参见Aaïit-Sahalia et al. (2010), Andersen et al. (2001, 2003, 2004), Barndorff-Nielsen and Shephard (2002, 2004), Noureldin, Shephard and Sheppard (2011), Shephard and Sheppard (2010). ...
An Approximation to the Finite Sample Distribution of Zellner's Seemingly Unrelated Regression Estimator
1
1977a
... 大样本分布在实证应用中简单方便, 但是在有限样本特别是小样本条件下, 参数估计量和检验统计量的渐近分布与真实的未知的有限样本分布可能相差甚远, 这在统计推断时将产生很大的Type I和Type II误差, 导致推断结论不可靠.为了改进渐近分布在有限样本条件下的近似程度, 计量经济学家和统计学家(如Klein and Spady (1993), Phillips(1977a, 1997b, 1977c), Ullah (1990))曾经致力于发展有限样本特别是小样本条件下的渐近理论, 其中包括所谓的Edgeworth展开和Saddle Point近似.但是, 这些方法相当复杂, 在实际中没有得到广泛的应用.近年来, 随着计算机技术的快速进步, 计量经济学的一个重要发展是Bootstrap方法的发展及其广泛应用. Bootstrap方法的理论基础也是Edgeworth展开, 但它巧妙地利用计算机对观测数据进行多次重复抽样而产生的随机样本, 大大改进了对参数估计量和检验统计量的真实有限样本分布的近似程度, 在实证研究中可提供更为可靠的统计推断结论, 因此得到了广泛的应用.更多讨论可参考Hall (1992)和Horowitz (2001). ...
Approximations to Some Finite Sample Distributions Associated with a First-order Stochastic Difference Equation
0
1977b
A General Theorem in the Theory of Asymptotic Expansions as Approximations to the Finite Sample Distributions of Econometric Estimators
1
1977c
... 大样本分布在实证应用中简单方便, 但是在有限样本特别是小样本条件下, 参数估计量和检验统计量的渐近分布与真实的未知的有限样本分布可能相差甚远, 这在统计推断时将产生很大的Type I和Type II误差, 导致推断结论不可靠.为了改进渐近分布在有限样本条件下的近似程度, 计量经济学家和统计学家(如Klein and Spady (1993), Phillips(1977a, 1997b, 1977c), Ullah (1990))曾经致力于发展有限样本特别是小样本条件下的渐近理论, 其中包括所谓的Edgeworth展开和Saddle Point近似.但是, 这些方法相当复杂, 在实际中没有得到广泛的应用.近年来, 随着计算机技术的快速进步, 计量经济学的一个重要发展是Bootstrap方法的发展及其广泛应用. Bootstrap方法的理论基础也是Edgeworth展开, 但它巧妙地利用计算机对观测数据进行多次重复抽样而产生的随机样本, 大大改进了对参数估计量和检验统计量的真实有限样本分布的近似程度, 在实证研究中可提供更为可靠的统计推断结论, 因此得到了广泛的应用.更多讨论可参考Hall (1992)和Horowitz (2001). ...
Understanding Spurious Regressions in Econometrics
1
1986
... 但是, 上述OLS理论在因变量和自变量时间序列为非平稳过程时, 一般不再适用. Granger and Newbold (1974)通过计算机模拟研究发现所谓伪回归(spurious regression)现象, 即两个互相独立的非平稳单位根时间序列, 如果将其中一个变量对另一个变量进行回归, 则回归系数估计量的$ t $-检验量在统计学上是显著的. Phillips (1986)从理论上给了严谨的解释. Nelson and Plosser (1982)通过应用Dicky-Fuller检验, 发现大部分宏观经济金融时间序列均是非平稳单位根过程.因此, 计量经济学家自20世纪80年代起便致力于发展非平稳时间序列计量经济学理论与方法, 包括Engle and Granger (1987)的协整理论, Phillips(1987a, 1987b)的单位根理论, 等等.对线性回归模型, 单位根时间序列大样本理论与平稳时间序列计量经济学理论完全不同.详细介绍可参考Hamilton (1994). ...
Time Series Regression with a Unit Root
1
1987a
... 但是, 上述OLS理论在因变量和自变量时间序列为非平稳过程时, 一般不再适用. Granger and Newbold (1974)通过计算机模拟研究发现所谓伪回归(spurious regression)现象, 即两个互相独立的非平稳单位根时间序列, 如果将其中一个变量对另一个变量进行回归, 则回归系数估计量的$ t $-检验量在统计学上是显著的. Phillips (1986)从理论上给了严谨的解释. Nelson and Plosser (1982)通过应用Dicky-Fuller检验, 发现大部分宏观经济金融时间序列均是非平稳单位根过程.因此, 计量经济学家自20世纪80年代起便致力于发展非平稳时间序列计量经济学理论与方法, 包括Engle and Granger (1987)的协整理论, Phillips(1987a, 1987b)的单位根理论, 等等.对线性回归模型, 单位根时间序列大样本理论与平稳时间序列计量经济学理论完全不同.详细介绍可参考Hamilton (1994). ...
Towards a Unified Asymptotic Theory for Autoregression
1
1987b
... 但是, 上述OLS理论在因变量和自变量时间序列为非平稳过程时, 一般不再适用. Granger and Newbold (1974)通过计算机模拟研究发现所谓伪回归(spurious regression)现象, 即两个互相独立的非平稳单位根时间序列, 如果将其中一个变量对另一个变量进行回归, 则回归系数估计量的$ t $-检验量在统计学上是显著的. Phillips (1986)从理论上给了严谨的解释. Nelson and Plosser (1982)通过应用Dicky-Fuller检验, 发现大部分宏观经济金融时间序列均是非平稳单位根过程.因此, 计量经济学家自20世纪80年代起便致力于发展非平稳时间序列计量经济学理论与方法, 包括Engle and Granger (1987)的协整理论, Phillips(1987a, 1987b)的单位根理论, 等等.对线性回归模型, 单位根时间序列大样本理论与平稳时间序列计量经济学理论完全不同.详细介绍可参考Hamilton (1994). ...
1
2002
... 大数据产生了一类被称为函数数据的新型数据, 如每天温度变化曲线, 上市公司每天股票价格曲线, 等等.面板数据是函数数据的一个特例.这类数据在统计学上催生了一组新模型, 叫函数数据模型(functional data models) (参见Müller (2005), Müller and Stadtmuller (2005), Ramsay and Silverman (2002, 2005)).另一类新型数据是区间数据(interval-valued data), 即由某个变量的最高值和最低值所组成的数的集合.传统数据大多为点数据(point-valued data).相对点数据来说, 区间数据包含着更多信息, 但长期以来没有得到有效利用.区间数据并不少见, 例如每天的最高温最低温, 高血压低血压, 每天股票最高价最低价, 金融资产的买卖差价(bid-ask spread), 等等.区间数据是所谓符号数据(symbolic data)的一个特例. Han, Hong and Wang (2017)率先提出了基于区间数据的autoregressive conditional interval (ACI)模型, 利用历史区间数据预测将来区间大小.这个模型可视为时间序列分析中ARMA模型的区间版本.也参见Han et al. (2016)和Sun et al. (2018). ...
1
2005
... 大数据产生了一类被称为函数数据的新型数据, 如每天温度变化曲线, 上市公司每天股票价格曲线, 等等.面板数据是函数数据的一个特例.这类数据在统计学上催生了一组新模型, 叫函数数据模型(functional data models) (参见Müller (2005), Müller and Stadtmuller (2005), Ramsay and Silverman (2002, 2005)).另一类新型数据是区间数据(interval-valued data), 即由某个变量的最高值和最低值所组成的数的集合.传统数据大多为点数据(point-valued data).相对点数据来说, 区间数据包含着更多信息, 但长期以来没有得到有效利用.区间数据并不少见, 例如每天的最高温最低温, 高血压低血压, 每天股票最高价最低价, 金融资产的买卖差价(bid-ask spread), 等等.区间数据是所谓符号数据(symbolic data)的一个特例. Han, Hong and Wang (2017)率先提出了基于区间数据的autoregressive conditional interval (ACI)模型, 利用历史区间数据预测将来区间大小.这个模型可视为时间序列分析中ARMA模型的区间版本.也参见Han et al. (2016)和Sun et al. (2018). ...
Root-N-Consistent Semiparametric Regression
1
1988
... 但是, "条件异方差与自相关的形式已知"这个假设显然不适合大多数经济观测数据.在实际应用中, 条件异方差与自相关的形式是未知的.在零自相关条件下(通常是横截面数据), 可先通过非参数方法一致地估计OLS残差的条件异方差, 再代入GLS估计量公式中, 从而得到适应性可行GLS估计量, 这种方法在大样本条件下具有BLUE性质(参见Robinson (1988), White and Stinchcombe (1991)). ...
Realising the Future: Forecasting with High-frequency-based Volatility (HEAVY) Models
1
2010
... 大数据产生了不少有别于传统数据的新型数据.例如, 每笔交易数据、日内资产价格数据、区间数据、函数数据等.这些新型数据呼唤新的计量经济学模型与方法.过去20年, 高频和超高频金融数据已经推动了高频金融计量学的快速发展.例如, Engle and Russell (1998)基于超高频每笔交易数据对价格变动之间的时间间隔进行建模, 提出一个autoregressive conditional duration (ACD)的新模型, 这个模型可利用超高频金融交易数据预测下一个价格变动的时间, 以及未来每个时间点价格变动的概率, 这些预测可用于量化投资交易策略设计及衍生品定价.另一方面, 利用日内资产收益率数据, 金融计量经济学家提出了新的估计每日波动率及每日资产收益率之间的协方差的方法, 这些高频波动率与协方差可用来改善投资组合管理和金融风险管理.参见Aaïit-Sahalia et al. (2010), Andersen et al. (2001, 2003, 2004), Barndorff-Nielsen and Shephard (2002, 2004), Noureldin, Shephard and Sheppard (2011), Shephard and Sheppard (2010). ...
Instrumental Variables Regression with Weak Instruments
1
1997
... 在实证研究中, 经常发现所使用的工具变量与自变量相关性很低, 导致2SLS估计量不稳定甚至不能一致估计未知真实参数值.这种情况称为"弱工具变量"(参见Staiger and Stock (1997)).弱工具变量的研究成为20年来计量经济学的一个重要研究方向. ...
Retrospectives: Who Invented Instrumental Variable Regression?
1
2003
... 当存在内生性时, 如果只对自变量决定因变量的线性回归模型进行估计, OLS估计量将不是真实参数值的一致估计.这时, 可采用2SLS估计法, 借助一组与随机扰动项不相关但与自变量密切相关的工具变量, 先将自变量"影射"到工具变量, 然后将因变量对"影射变量"进行回归, 这样可获得单向因果关系(从自变量到因变量)的参数值的一致估计. 2SLS估计已有近百年的历史, 最早是20世纪20年代在病理学实证研究中发展起来的, 其关键与难点在于如何寻找有效的工具变量(参见Stock and Trebbi (2003)). ...
Threshold Autoregressive Models for Interval-valued Time Series Data
1
2018
... 大数据产生了一类被称为函数数据的新型数据, 如每天温度变化曲线, 上市公司每天股票价格曲线, 等等.面板数据是函数数据的一个特例.这类数据在统计学上催生了一组新模型, 叫函数数据模型(functional data models) (参见Müller (2005), Müller and Stadtmuller (2005), Ramsay and Silverman (2002, 2005)).另一类新型数据是区间数据(interval-valued data), 即由某个变量的最高值和最低值所组成的数的集合.传统数据大多为点数据(point-valued data).相对点数据来说, 区间数据包含着更多信息, 但长期以来没有得到有效利用.区间数据并不少见, 例如每天的最高温最低温, 高血压低血压, 每天股票最高价最低价, 金融资产的买卖差价(bid-ask spread), 等等.区间数据是所谓符号数据(symbolic data)的一个特例. Han, Hong and Wang (2017)率先提出了基于区间数据的autoregressive conditional interval (ACI)模型, 利用历史区间数据预测将来区间大小.这个模型可视为时间序列分析中ARMA模型的区间版本.也参见Han et al. (2016)和Sun et al. (2018). ...
Out-of-Sample Forecasts for China's Economic Growth and Inflation Using Rolling Weighted Least Squares
1
2019
... 除了结构突变之外, 另一种结构变化是缓慢结构变化, 即模型参数随时间缓慢变化.一个例子是所谓的时变性STAR模型.趋势平稳过程也是一个例子, 如果其均值是时间的平滑函数的话.现实经济由于人口偏好、技术进步、政策变化、体制改革、外部条件变动等原因, 经常导致经济行为与经济结构发生变化.此外, 由于经济主体可以理性预测或感知政策等变化, 并适应性地改变其行为, 这也会导致经济结构发生变化, 这就是著名的卢卡斯批判(Lucas (1976)).但是, 即使上述因素突然发生, 由于习惯与调整成本等原因, 经济主体的行为及经济结构也可能会缓慢地变化.甚至即使经济个体的行为发生了突变, 如果个体行为突变的时间点不同, 则加总的宏观经济序列也会出现缓慢变化态势.总之, 很多情形下, 缓慢结构变化可能更接近经济现实.一个典型案例是美国宏观经济波动的"大缓和(Great Moderation)"现象.美国自20世纪80年代中期以来, 宏观经济波动, 特别是GDP增长率和通货膨胀率的波动, 呈现出一个逐渐缩小的趋势, 这称为"大缓和"现象(参见Bernanke (2004)).其实, 中国宏观经济也存在类似的"大缓和"现象, 中国的GDP增长率和通货膨胀率, 分别从1992年和1999年起出现了波动逐渐变小的趋势(参见Sun, Hong and Wang (2019)).但是, 对中国宏观经济的"大缓和"现象, 似乎至今还没有人深入研究其原因. ...
Diagnostic Testing and Evaluation of Maximum Likelihood Models
1
1985
... 由于回归模型误设(即$ E(\varepsilon _t|X_t)\not = 0 $)影响到参数的经济解释的有效性以及参数估计的一致性, Hausman (1978)提出了一个检验回归模型误设的方法, 被称为Hausman检验. White (1981), Newey (1985), Tauchen (1985)和White (1990)将此方法拓展到以矩条件为基础的更一般的模型设定检验, 称为矩检验或$ m $-检验.这些检验均不是一致检验(consistent tests), 即无法检测出一些误设模型, 甚至在大样本时也是如此. Bierens(1982, 1990), Hong and White (1995), Fan and Li (1996), Hong and Lee (2013)等采用非参数等方法提出了线性或非线性回归模型设定的检验方法.当样本容量足够大时, 这些方法可以检测任何形式的模型误设, 因此是一致检验. ...
1
1990
... 大样本分布在实证应用中简单方便, 但是在有限样本特别是小样本条件下, 参数估计量和检验统计量的渐近分布与真实的未知的有限样本分布可能相差甚远, 这在统计推断时将产生很大的Type I和Type II误差, 导致推断结论不可靠.为了改进渐近分布在有限样本条件下的近似程度, 计量经济学家和统计学家(如Klein and Spady (1993), Phillips(1977a, 1997b, 1977c), Ullah (1990))曾经致力于发展有限样本特别是小样本条件下的渐近理论, 其中包括所谓的Edgeworth展开和Saddle Point近似.但是, 这些方法相当复杂, 在实际中没有得到广泛的应用.近年来, 随着计算机技术的快速进步, 计量经济学的一个重要发展是Bootstrap方法的发展及其广泛应用. Bootstrap方法的理论基础也是Edgeworth展开, 但它巧妙地利用计算机对观测数据进行多次重复抽样而产生的随机样本, 大大改进了对参数估计量和检验统计量的真实有限样本分布的近似程度, 在实证研究中可提供更为可靠的统计推断结论, 因此得到了广泛的应用.更多讨论可参考Hall (1992)和Horowitz (2001). ...
Big Data: New Tricks for Econometrics
2
2014
... 大数据在很多情况下样本容量相当大, 特别是高频数据.如果数据样本容量远大于大数据中潜在解释或预测变量的维数, 这类数据称为"高大数据(Tall Big Data)".与传统数据相比, 高大数据有助于挖掘大数据中变量之间的复杂关系, 特别是非线性关系.因此非线性计量经济学模型在大数据时代可望有更广的发展与应用空间.用于大数据分析的很多机器学习方法, 例如决策树, 随机森林, 人工神经网络, 深度学习等, 都是非线性计算机算法, 很大程度上类似于统计学的非参数分析.以White为代表的计量经济学家, 构建了人工神经网络非参数建模的理论与方法(参见White (1992)).人工神经网络模型曾被广泛应用于经济金融数据的实证研究中.事实上, 大数据最重要的特征并不在于样本容量大, 而更在于拥有很多潜在的解释或预测变量, 甚至有可能出现潜在解释或预测变量的维数超过样本容量, 这称为"胖大数据(Fat Big Data)"或高维大数据.高维解释变量提供了变量选择或模型选择的很多可能性.对高维大数据, 很多情形下可能只有少数未知的解释变量具有重要的解释或预测能力.机器学习已发明不少计算机算法(如决策树、随机森林等), 来选择重要解释或预测变量(参见Varian (2014)的介绍与实例).如何识别、选择重要解释变量并估计其影响, 需要借助机器学习的方法与工具, 并与计量经济学理论结合起来.这方面的一个典型案例是从高维数据中选择重要变量的LASSO方法, 这是结合机器学习的一个"统计学习"方法(参见Hastie, Tibshirani and Wainwright (2015)).基于高维大数据, 可结合机器学习方法进行研究的计量经济学理论问题中, 包括:如何在大量潜在工具变量中寻找最显著的工具变量, 以达到最佳工具变量估计效果, 从而解决弱工具变量带来的困扰; 如何在大量经济领先指数中(其个数可能超过样本容量), 识别、选择其中最具有预测能力的领先指数, 达到最佳样本外预测效果; 如何在构建资本资产定价模型时, 从大量潜在的风险因子中, 分别识别每个资产的少数几个重要风险因子并估计其影响, 以及如何在高维非参数函数估计中(特别是存在多个解释变量时), 运用机器学习方法降低非参数函数估计量的维度, 以得到更好的估计效果, 等等. ...
... 大数据和机器学习也可望在研究经济因果关系方面提供很大的帮助.如前文所述, 基于非实验性经济观测数据的定量政策评估的一个基本思想是, 在同等条件下, 比较实施某一政策后的结果与假设没有实施该政策时的虚拟结果.由于政策已经实施, 假设该政策没有实施的虚拟结果是无法观测的, 因此需要用计量经济学方法来估计或预测.显然, 政策效应评估的准确性取决于估计或预测虚拟结果的计量经济学方法的科学性与有效性, 其本质在某种意义上可视为样本外预测.由于机器学习的主要应用是基于大数据提供的海量信息, 通过计算机算法提供比较准确的样本外预测, 可以预计, 基于大数据和机器学习的预测方法可为精准政策评估提供新的方法与工具.机器学习的算法预测并不一定是基于经济变量之间的因果关系, 事实上算法预测常常看上去像个"黑箱", 不具备很清楚的可解释性.但是, 正如Varian (2014)指出, 大数据和机器学习对虚拟事实的精确预测可为经济因果关系的识别与精准量化评估政策效应提供巨大帮助. ...
Crude Oil Price Forecasting with TEI@I Methodology
1
2005
... 大数据也使得构建高频化的重要经济指数或经济变量成为可能.例如, 宏观经济物价指数, CPI或PPI, 目前抽样最高频率是月度数据.通过互联网消费品和生产品价格信息, 完全有可能借助人工智能方法构建每周甚至每天的消费者物价指数和生产者物价指数.这些高频宏观经济变量对研究宏观经济的当期或近期的运行状况, 具有重要的现实意义.可以预料, 在不远的将来, 高频宏观经济学将有可能应运而生, 这样的新兴学科能够更好地研究宏观经济和金融市场之间的互动关系.事实上, 大数据已催生了实时预测(nowcasting)计量经济学. "实时预测"这个术语源于气象学, 通常是指2小时之内的短期天气预测.计量经济学的"实时预测", 是指利用实时大数据预测当季GDP及其它宏观经济指标.由于季度GDP的公布时间有较长的滞后期, 实时预测当季GDP等重要宏观经济指标, 对监控宏观经济运行具有重要意义.不少国家的中央银行已开始对各自国家的GDP进行实时预测.有关实时预测的更多讨论论参见Giannone et al. (2008). (Wang et al. (2005))提出了一个TEI@I预测方法论, 将文本挖掘、计量建模与人工智能等方法综合集成, 解决了将统计历史数据与异质数据、定性与定量分析相结合的难题, 显著地提升了样本外预测精度. ...
A Heteroskedasticity-consistent Covariance Matrix Estimator and a Direct Test for Heteroskedasticity
1
1980
... 但是, 在实际应用中, 大部分研究还是偏好采用比较简单的OLS估计及相应的统计推断方法. White (1980)推导了条件异方差条件下OLS估计量的渐近方差公式并提出了其估计方法, 这被称为White's heteroskedasticity-consistent variance-covariance matrix estimator.基于这个正确的方差估计量, 可修正经典$ t $-检验量, 使之在存在条件异方差但样本容量足够大时, 依然可以适用.所得到的检验通常称为稳健性(robust) $ t $-检验.另一方面, 经典$ F $-检验量因为无法修正, 因此在存在条件异方差时, 不再适用, 即使是大样本时也是如此.但是, 可构造使用正确方差估计量的稳健性Wald检验与拉格朗日乘子检验. ...
Consequences and Detection of Misspecified Nonlinear Regression Models
1
1981
... 由于回归模型误设(即$ E(\varepsilon _t|X_t)\not = 0 $)影响到参数的经济解释的有效性以及参数估计的一致性, Hausman (1978)提出了一个检验回归模型误设的方法, 被称为Hausman检验. White (1981), Newey (1985), Tauchen (1985)和White (1990)将此方法拓展到以矩条件为基础的更一般的模型设定检验, 称为矩检验或$ m $-检验.这些检验均不是一致检验(consistent tests), 即无法检测出一些误设模型, 甚至在大样本时也是如此. Bierens(1982, 1990), Hong and White (1995), Fan and Li (1996), Hong and Lee (2013)等采用非参数等方法提出了线性或非线性回归模型设定的检验方法.当样本容量足够大时, 这些方法可以检测任何形式的模型误设, 因此是一致检验. ...
1
... 大数据在很多情况下样本容量相当大, 特别是高频数据.如果数据样本容量远大于大数据中潜在解释或预测变量的维数, 这类数据称为"高大数据(Tall Big Data)".与传统数据相比, 高大数据有助于挖掘大数据中变量之间的复杂关系, 特别是非线性关系.因此非线性计量经济学模型在大数据时代可望有更广的发展与应用空间.用于大数据分析的很多机器学习方法, 例如决策树, 随机森林, 人工神经网络, 深度学习等, 都是非线性计算机算法, 很大程度上类似于统计学的非参数分析.以White为代表的计量经济学家, 构建了人工神经网络非参数建模的理论与方法(参见White (1992)).人工神经网络模型曾被广泛应用于经济金融数据的实证研究中.事实上, 大数据最重要的特征并不在于样本容量大, 而更在于拥有很多潜在的解释或预测变量, 甚至有可能出现潜在解释或预测变量的维数超过样本容量, 这称为"胖大数据(Fat Big Data)"或高维大数据.高维解释变量提供了变量选择或模型选择的很多可能性.对高维大数据, 很多情形下可能只有少数未知的解释变量具有重要的解释或预测能力.机器学习已发明不少计算机算法(如决策树、随机森林等), 来选择重要解释或预测变量(参见Varian (2014)的介绍与实例).如何识别、选择重要解释变量并估计其影响, 需要借助机器学习的方法与工具, 并与计量经济学理论结合起来.这方面的一个典型案例是从高维数据中选择重要变量的LASSO方法, 这是结合机器学习的一个"统计学习"方法(参见Hastie, Tibshirani and Wainwright (2015)).基于高维大数据, 可结合机器学习方法进行研究的计量经济学理论问题中, 包括:如何在大量潜在工具变量中寻找最显著的工具变量, 以达到最佳工具变量估计效果, 从而解决弱工具变量带来的困扰; 如何在大量经济领先指数中(其个数可能超过样本容量), 识别、选择其中最具有预测能力的领先指数, 达到最佳样本外预测效果; 如何在构建资本资产定价模型时, 从大量潜在的风险因子中, 分别识别每个资产的少数几个重要风险因子并估计其影响, 以及如何在高维非参数函数估计中(特别是存在多个解释变量时), 运用机器学习方法降低非参数函数估计量的维度, 以得到更好的估计效果, 等等. ...
1
1991
... 但是, "条件异方差与自相关的形式已知"这个假设显然不适合大多数经济观测数据.在实际应用中, 条件异方差与自相关的形式是未知的.在零自相关条件下(通常是横截面数据), 可先通过非参数方法一致地估计OLS残差的条件异方差, 再代入GLS估计量公式中, 从而得到适应性可行GLS估计量, 这种方法在大样本条件下具有BLUE性质(参见Robinson (1988), White and Stinchcombe (1991)). ...