这个假设让maximization在数学上非常容易计算
简而言之,likelihood函数可以简化为
简化后的函数对参数估计很有用 为了最大化观察到的事件的可能性,取log函数最大化参数θ。
并且从log函数的“乘法变加法”的属性,参数评估θ的方程式简化成
计算机计算多次加法是很高效的计算塖法并不高效。这一个简化是计算效率提高了核心原因而这个Log变换也在最大化的过程中,把很多exponential的函数变成线性函数
并且要完成最大囮的倒数第二步,扩展概率函数 以高斯分布为例。 为何选择高斯 我将在下面解释。
两个原因在这个假设在实际应用中好用
即使样本来自更复杂的非高斯分布它也能很好地approximate。 因为它可以从中心极限定理简化为高斯分布 对于大量可观测的樣本,“许多随机变量的总和将具有近似正态的分布”
我们有“大数据”是让这个定理成为可用。
样本数据来自多种不同类型的分布或者是参数不同的分布。 像下面的采样数据一样取自这4个参数不同的高斯分布这时另一種选择是"maximize a posteriori".
MAP中的参数估计过程会考虑样本实例的分布来源。
拍照搜题秒出答案,一键查看所有搜题记录
拍照搜题秒出答案,一键查看所有搜题记录
拍照搜题秒出答案,一键查看所有搜题记录