泛化均方误差
    泛化均方误差(FUPV)的定义为,一个测量统计量与另一个被选择来做比较的测量统计量之间的协方差。用数学符号表示为D=frac{(x-y)}{x-y}dx^2+bxy。
    最早提出泛化均方误差的是Pczysz。他指出如果两个随机变量X和Y具有相同的分布,并且存在均匀分布的第三个随机变量X′,那么这两个随机变量之间存在一种泛化关系,称为均方误差关系。但是Pczysz没有给出严格证明。
    Pczysz证明,如果将它们视为相互独立的随机变量,则对任意第三个随机变量x的观测结果d(x, y)总是服从正态分布的,其中β是参数。由于可能会存在无限多不同分布的第三个随机变量,所以无法进行数学证明。
    Pczysz使用泛化均方误差来估计解的分布,但没有考虑协方差矩阵。尽管如此, Pczysz仍然得到了可靠的结论。而且,如果Pczysz假设已知解的分布,或者已知所有可能的解的分布,则他可以根据样本得到关于样本观测值的概率分布。
truncated normal distribution
    Poisson-Jacobi对应于均方误差和误差平方和。他指出,如果一个随机变量X的均方误差和
误差平方和均相等,则这个随机变量X就是解释一组观测值的均匀分布的最佳值,即p=p(X)为泛化均方误差。也就是说,如果X是解释一组观测值的均匀分布的最佳值,那么Pczysz也就假设X是解释该组观测值的均匀分布的最佳值。由于Pczysz使用估计的均方误差来估计解的分布,所以如果Pczysz使用假设,即Pczysz认为已经知道解的分布,则只需要求解相应的均方误差,即可得到解的分布。
    后来,人们使用该假设的误差平方和来估计均方误差。在约翰逊不等式中,如果对任何实数k ≥0,定义误差平方和的期望值V(k)为: left| V(k)right| = V(k-1)+sum_{n=1}^kV(n-k),那么均方误差就是误差平方和的平方根: P_{i}^2 = sum_{j=0}^k(P_i-P_j)。其中, P_i和P_j是来自观测样本的观测值, K是来自观测样本的联合概率分布, p是均方误差。可见,对均方误差而言,该误差平方和的平方根即为P_i^2或P_j^2。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。