2024-09-01
数学之美
00

目录

背景
公式
示例题目
详细讲解
对数似然函数
Python代码求解
实际生活中的例子

背景

最大似然估计(Maximum Likelihood Estimation, MLE)是一种估计统计模型参数的方法。它在众多统计学领域中被广泛使用,比如回归分析、时间序列分析、机器学习和经济学。其核心思想是:给定一个观测数据集,找到一组参数,使得在这些参数下观测到当前数据的可能性(似然)最大。

公式

假设我们有一个参数为 θ\theta 的概率分布,观测数据为 X=(x1,x2,,xn)X = (x_1, x_2, \ldots, x_n),则似然函数(Likelihood Function)可以表示为:

L(θ;X)=P(Xθ)=i=1nP(xiθ) L(\theta; X) = P(X|\theta) = \prod_{i=1}^n P(x_i|\theta)

为了简化计算,我们通常使用对数似然函数(Log-Likelihood Function):

(θ;X)=logL(θ;X)=i=1nlogP(xiθ) \ell(\theta; X) = \log L(\theta; X) = \sum_{i=1}^n \log P(x_i|\theta)

最大似然估计的目标是找到参数 θ\theta,使得对数似然函数 (θ;X)\ell(\theta; X) 达到最大值。即:

θ^=argmaxθ(θ;X) \hat{\theta} = \arg \max_\theta \ell(\theta; X)

示例题目

正态分布的概率密度函数(PDF)可以表示为:

f(xμ,σ2)=12πσ2exp((xμ)22σ2) f(x|\mu, \sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x - \mu)^2}{2\sigma^2}\right)

假设我们有一组观测数据 X=(x1,x2,,xn)X = (x_1, x_2, \ldots, x_n),这些数据都来自于一个正态分布 N(μ,σ2)N(\mu, \sigma^2)。我们希望估计正态分布的参数 μ\muσ2\sigma^2

观测数据为 X=(x1,x2,,xn)X = (x_1, x_2, \ldots, x_n)

详细讲解

  1. 写出似然函数:根据正态分布的概率密度函数,似然函数可以写为:

似然函数 L(μ,σ2;X)L(\mu, \sigma^2; X) 是在给定参数 μ\muσ2\sigma^2 下,观测数据 XX 出现的概率。对于独立同分布的数据,这个概率是每个数据点概率密度的乘积,即:

L(μ,σ2;X)=i=1nf(xiμ,σ2) L(\mu, \sigma^2; X) = \prod_{i=1}^n f(x_i|\mu, \sigma^2)

将正态分布的概率密度函数代入似然函数中,得到:

L(μ,σ2;X)=i=1n12πσ2exp((xiμ)22σ2) L(\mu, \sigma^2; X) = \prod_{i=1}^n \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x_i - \mu)^2}{2\sigma^2}\right)

对数似然函数

  1. 取对数:为了简化计算,取对数得到对数似然函数:

    (μ,σ2;X)=i=1nlog(12πσ2exp((xiμ)22σ2)) \ell(\mu, \sigma^2; X) = \sum_{i=1}^n \log \left( \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x_i - \mu)^2}{2\sigma^2}\right) \right)

    进一步简化:

    (μ,σ2;X)=n2log(2πσ2)12σ2i=1n(xiμ)2 \ell(\mu, \sigma^2; X) = -\frac{n}{2} \log(2\pi\sigma^2) - \frac{1}{2\sigma^2} \sum_{i=1}^n (x_i - \mu)^2
  2. 求导并解方程:对 μ\muσ2\sigma^2 分别求导并令其等于零,可以得到参数的估计值。

    μ\mu 求导:

    μ=1σ2i=1n(xiμ)=0 \frac{\partial \ell}{\partial \mu} = \frac{1}{\sigma^2} \sum_{i=1}^n (x_i - \mu) = 0

    解得:

    μ^=1ni=1nxi \hat{\mu} = \frac{1}{n} \sum_{i=1}^n x_i

    σ2\sigma^2 求导:

    σ2=n2σ2+12σ4i=1n(xiμ)2=0 \frac{\partial \ell}{\partial \sigma^2} = -\frac{n}{2\sigma^2} + \frac{1}{2\sigma^4} \sum_{i=1}^n (x_i - \mu)^2 = 0

    解得:

    σ^2=1ni=1n(xiμ)2 \hat{\sigma}^2 = \frac{1}{n} \sum_{i=1}^n (x_i - \mu)^2

Python代码求解

python
import numpy as np # 观测数据 X = np.array([2.3, 1.9, 3.1, 2.8, 2.4]) # 估计参数 mu_hat = np.mean(X) sigma_squared_hat = np.var(X, ddof=0) print("估计的均值 μ:", mu_hat) print("估计的方差 σ^2:", sigma_squared_hat)

实际生活中的例子

最大似然估计在实际生活中的应用广泛。例如,在医学研究中,科学家常常需要估计某种疾病的发病率。假设有一个新的传染病,研究人员需要估计其传播率(即,传染给某人的概率)。他们收集了若干病例数据,通过最大似然估计,可以得到传播率的最优估计,从而帮助制定防控策略。

最大似然估计同样可以应用于金融领域,比如估计股票的收益率和风险;在机器学习中,用于训练模型的参数,如线性回归中的回归系数等。

如果对你有用的话,可以打赏哦
打赏
ali pay
wechat pay

本文作者:Dong

本文链接:

版权声明:本博客所有文章除特别声明外,均采用 CC BY-NC。本作品采用《知识共享署名-非商业性使用 4.0 国际许可协议》进行许可。您可以在非商业用途下自由转载和修改,但必须注明出处并提供原作者链接。 许可协议。转载请注明出处!