diff --git a/Algorithms/Estimation/MaximumLikelihoodEstimate.md b/Algorithms/Estimation/MaximumLikelihoodEstimate.md index e5a3780..a182c6c 100644 --- a/Algorithms/Estimation/MaximumLikelihoodEstimate.md +++ b/Algorithms/Estimation/MaximumLikelihoodEstimate.md @@ -1,6 +1,14 @@ -# 极大似然估计 MaximumLikelihoodEstimate +# 极大似然估计 +## Maximum Likelihood Estimate -在感知算法中很常用于分类、以及直接法视觉里程计的配准问题中。 +极大似然估计 MaximumLikelihoodEstimate, 在感知算法中很常用于分类问题,以及在直接法视觉里程计中用于相邻帧配准的问题。 + 想法是将需要根据参数进行估计的问题,转化成一个概率论中的随机变量,如果该变量的分布是单峰的,则用一个多维高斯分布去逼近、拟合这个变量的分布(问题中要估计的量由几个参数决定,就用几维的高斯分布),在极大似然的意义下,可得到闭式的全局最优解。对于单峰的随机变量而言,是很高效的方法,除了预测、分类外,还可以用极大似然估计达到压缩信息的目的——本来为了保存该变量的分布,在不知道其模型的情况下只能把每一个样本的数据都存下来,用高斯分布拟合逼近之后,就只有均值和方差两个数(或向量)需要存了,大大节省空间。 -而如果要逼近的随机变量有多个峰,那么需要用高斯混合模型,并通过最大化期望法(Expectation-Maximization,EM算法)来逼近拟合,此方法无法得到闭式的全局最优解,但可以确保收敛至一个局部最优解。 \ No newline at end of file +[多维高斯分布公式1] + +而如果要逼近的随机变量有多个峰,那么需要用高斯混合模型,并通过最大化期望法(Expectation-Maximization,EM算法)来逼近拟合,此方法无法得到闭式的全局最优解,但可以确保收敛至一个局部最优解。 + +[高斯混合模型公式2] + +[EM算法流程图] \ No newline at end of file