如何量化水文模型的输入误差?

这种基于贝叶斯分析和重排序算法的系统模拟能把水文模型的输入误差给量化出来。它想出了个新招,就是贝叶斯误差分析与重排序算法,专门用来解决水文模型校准里的输入误差问题。研究人员把估计误差这件事给转了个向,变成了找最佳误差排序的问题。通过割线法迭代调整误差排列的顺序,不光提高了计算的效率,连准确度也跟着上去了。这下可好了,水文系统里响应滞后和误差老凑一块儿的老毛病算是解决了。大家在合成案例和真事里都试过,方法的鲁棒性很强。 这次研究给出的思路挺巧妙的:不直接盯着每一刻的误差值看,而是看这些误差在预设分布里排第几名。研究假设降水观测的误差是对数正态分布的,统计特征要么在之前定好,要么跟模型参数一块儿算出来。BEAR方法主要分三块儿。第一块儿是针对传统方法解不出反向模型变换的难题,这回直接用割线法来算。每个时间步都看看模型残差往哪儿变,算出怎么更新误差排名还有步子迈多大。具体说就是用割线公式算出新排名,再把所有排名排排座次重整一下。 第二块儿是因为一次下雨会让后面几个时段都跟着变,导致残差序列里的关联性很强。这就影响了输入误差和残差之间的对应关系了。为了去掉这个干扰,研究用二阶自回归模型AR(2)对残差做了预处理。这样做是为了把那部分只由当前输入误差主导的残差给找出来。 第三块儿就是把BEAR算法塞进近似贝叶斯计算-序贯蒙特卡洛(ABC-SMC)的框架里。它是通过一代一代缩小目标函数容差,一边调模型参数一边调输入误差排名的顺序,最后就把输入误差给精准定下来了。 研究用合成数据还有澳大利亚Macintyre河流域的数据试了试BEAR方法。这地方还挺特别的,一共用了10个雨量站的数据来验证。结果发现不管用哪个站的数都行。在只有输入误差和参数误差的合成场景里(R(AR)),BEAR方法表现最好,算出来的数、修完的图还有拟合度都比别的法子好得多。相对比来看随机采样法(D)老是低估标准差。 要是加进去模型结构误差呢?BEAR方法还是有点优势的。不过这个时候要是均值信息不够准就会差点意思。要是均值知道得清清楚楚它就能发挥作用;要是得一块儿推断的话结构误差就会削弱它的本事。这就告诉咱们先验知识对这法子特别重要。 编者觉得这研究对怎么量化水文模型的不确定性挺有帮助的。BEAR方法最厉害的地方就是把复杂问题给简单化了——从估计一大堆数值变成优化有限数量的排名顺序。这既躲开了高维计算那个大坑又把随机采样的短板给补上了。特别是它对系统响应慢(滞后)和影响久(持续性)这两大特点的处理做得很到位。 澳大利亚那个真实案例也很能说明问题。不管拿哪个雨量站的数据算出来都能明显降低模型输出的均方根误差。而且对标准差的估计在不同数据源之间也很稳定还比较靠谱。这也证明了在现实工作中这法子确实比老方法强不少。