建设网站的软件下载,浙江百度推广,广州建站外贸,手机怎么做钓鱼网站人工智能之数学基础 概率论与统计
第二章 核心定理 文章目录 人工智能之数学基础 概率论与统计前言一、贝叶斯定理#xff08;Bayes Theorem#xff09;1. 定理陈述2. 直观例子#xff1a;疾病检测3. Python 实现#xff1a;贝叶斯更新#xff08;Beta-Bernoulli 共轭Bayes Theorem1. 定理陈述2. 直观例子疾病检测3. Python 实现贝叶斯更新Beta-Bernoulli 共轭二、大数定律Law of Large Numbers, LLN1. 定理陈述2. Python 验证模拟 LLN三、中心极限定理Central Limit Theorem, CLT1. 定理陈述2. 直观理解3. Python 验证CLT 模拟四、三大定理对比总结五、综合应用A/B 测试中的 CLT 与贝叶斯场景比较两个网页版本的点击率方法1频率学派基于 CLT方法2贝叶斯Beta-Bernoulli六、结语后续资料关注前言概率论中的三大核心定理——贝叶斯定理Bayes’ Theorem、大数定律Law of Large Numbers和中心极限定理Central Limit Theorem, CLT——构成了现代统计推断、机器学习和数据科学的理论基石。本文将深入讲解这些定理的数学含义、直观解释、应用场景并提供完整的Python 代码实现与可视化验证。一、贝叶斯定理Bayes’ Theorem1. 定理陈述对于两个事件 $ A $ 和 $B $若 $P(B) 0 $则P ( A ∣ B ) P ( B ∣ A ) ⋅ P ( A ) P ( B ) P(A \mid B) \frac{P(B \mid A) \cdot P(A)}{P(B)}P(A∣B)P(B)P(B∣A)⋅P(A)在参数估计中常写作后验 似然 × 先验 证据 ⇒ P ( θ ∣ D ) P ( D ∣ θ ) P ( θ ) P ( D ) \text{后验} \frac{\text{似然} \times \text{先验}}{\text{证据}} \quad \Rightarrow \quad P(\theta \mid \mathcal{D}) \frac{P(\mathcal{D} \mid \theta) P(\theta)}{P(\mathcal{D})}后验证据似然×先验⇒P(θ∣D)P(D)P(D∣θ)P(θ)其中$P(\theta) $先验Prior— 对参数的初始信念$P(\mathcal{D} \mid \theta) $似然Likelihood— 在参数下观测数据的概率$ P(\theta \mid \mathcal{D}) $后验Posterior— 观测数据后对参数的更新信念$ P(\mathcal{D}) \int P(\mathcal{D} \mid \theta) P(\theta) d\theta $边缘似然/证据Evidence✅ 贝叶斯定理实现了从“原因→结果”到“结果→原因”的推理逆转。2. 直观例子疾病检测某病患病率$P(\text{病}) 0.001 $检测准确率$P(\text{阳性} \mid \text{病}) 0.99 $真阳性$ P(\text{阳性} \mid \text{健康}) 0.02 $假阳性问若检测为阳性实际患病的概率P ( 病 ∣ 阳性 ) 0.99 × 0.001 0.99 × 0.001 0.02 × 0.999 ≈ 0.047 P(\text{病} \mid \text{阳性}) \frac{0.99 \times 0.001}{0.99 \times 0.001 0.02 \times 0.999} \approx 0.047P(病∣阳性)0.99×0.0010.02×0.9990.99×0.001≈0.047即使检测“很准”由于疾病罕见阳性结果大概率是假阳性3. Python 实现贝叶斯更新Beta-Bernoulli 共轭假设我们抛硬币想知道正面概率 $ \theta $。先验用 Beta 分布共轭先验。importnumpyasnpimportmatplotlib.pyplotaspltfromscipy.statsimportbeta,binom# 先验Beta(α1, β1) → 均匀分布alpha_prior,beta_prior1,1# 模拟观测数据10 次试验7 次正面n_trials,n_heads10,7# 后验参数共轭性质alpha_postalpha_priorn_heads beta_postbeta_priorn_trials-n_heads# 绘制先验 vs 后验xnp.linspace(0,1,500)prior_pdfbeta.pdf(x,alpha_prior,beta_prior)posterior_pdfbeta.pdf(x,alpha_post,beta_post)plt.plot(x,prior_pdf,r--,labelf先验 Beta({alpha_prior},{beta_prior}))plt.plot(x,posterior_pdf,b-,labelf后验 Beta({alpha_post},{beta_post}))plt.axvline(n_heads/n_trials,colork,linestyle:,labelMLE 0.7)plt.xlabel(θ (正面概率))plt.ylabel(密度)plt.title(贝叶斯更新硬币偏置估计)plt.legend()plt.grid(True)plt.show()print(f后验均值:{alpha_post/(alpha_postbeta_post):.3f})print(f95% 置信区间:{beta.ppf([0.025,0.975],alpha_post,beta_post)})✅ 随着数据增加后验越来越集中趋近于真实值。二、大数定律Law of Large Numbers, LLN1. 定理陈述设 $X_1, X_2, \dots, X_n $ 是独立同分布i.i.d.的随机变量且 $ \mathbb{E}[X_i] \mu $存在则X ˉ n 1 n ∑ i 1 n X i → a . s . μ 强大数定律 \bar{X}_n \frac{1}{n} \sum_{i1}^n X_i \xrightarrow{a.s.} \mu \quad \text{强大数定律}Xˉnn1i1∑nXia.s.μ强大数定律X ˉ n → P μ 弱大数定律 \bar{X}_n \xrightarrow{P} \mu \quad \text{弱大数定律}XˉnPμ弱大数定律即样本均值依概率或几乎必然收敛于期望值。 直观抛硬币次数越多正面频率越接近 0.5。2. Python 验证模拟 LLNnp.random.seed(42)n_max10000# 生成 i.i.d. 样本指数分布均值2true_mean2samplesnp.random.exponential(scaletrue_mean,sizen_max)# 计算累积均值cumulative_meansnp.cumsum(samples)/np.arange(1,n_max1)# 绘图plt.figure(figsize(10,5))plt.plot(cumulative_means,label样本均值)plt.axhline(true_mean,colorr,linestyle--,labelf真实均值 μ{true_mean})plt.xlabel(样本数量 n)plt.ylabel(累积均值)plt.title(大数定律验证指数分布λ0.5)plt.legend()plt.grid(True)plt.show() 可见随着 ( n ) 增大样本均值稳定收敛到理论均值。三、中心极限定理Central Limit Theorem, CLT1. 定理陈述设 $ X_1, \dots, X_n $ 是独立同分布i.i.d. 随机变量$ \mathbb{E}[X_i] \mu \text{Var}(X_i) \sigma^2 \infty $则当 $n \to \infty $ 时X ˉ n − μ σ / n → d N ( 0 , 1 ) \frac{\bar{X}_n - \mu}{\sigma / \sqrt{n}} \xrightarrow{d} \mathcal{N}(0, 1)σ/nXˉn−μdN(0,1)即无论原始分布如何样本均值的标准化形式渐近服从标准正态分布。✅ 这是t 检验、置信区间、A/B 测试等方法的理论基础2. 直观理解即使原始数据高度偏斜如指数分布、泊松分布只要样本量足够大均值的分布就近似正态。3. Python 验证CLT 模拟importseabornassns np.random.seed(0)n_samples10000# 模拟多少次“抽样”n_obs50# 每次抽多少个样本# 从非正态分布指数分布抽样sample_means[]for_inrange(n_samples):samplenp.random.exponential(scale2,sizen_obs)# 均值2sample_means.append(np.mean(sample))sample_meansnp.array(sample_means)# 理论均值 ~ N(μ, σ²/n)mu2sigma2# 指数分布标准差 均值theoretical_stdsigma/np.sqrt(n_obs)# 绘图plt.figure(figsize(10,5))sns.histplot(sample_means,kdeTrue,statdensity,bins50,alpha0.6,label样本均值分布)# 叠加理论正态分布xnp.linspace(sample_means.min(),sample_means.max(),200)theoretical_pdfnorm.pdf(x,locmu,scaletheoretical_std)plt.plot(x,theoretical_pdf,r-,lw2,labelf理论 N(μ{mu}, σ{theoretical_std:.2f}))plt.axvline(mu,colork,linestyle--,label真实均值)plt.xlabel(样本均值)plt.ylabel(密度)plt.title(f中心极限定理验证n{n_obs})plt.legend()plt.grid(True)plt.show()print(f样本均值均值:{sample_means.mean():.3f}(理论:{mu}))print(f样本均值标准差:{sample_means.std():.3f}(理论:{theoretical_std:.3f})) 即使原始分布是右偏的指数分布均值的分布已非常接近正态四、三大定理对比总结定理核心思想收敛类型应用贝叶斯定理用数据更新信念—贝叶斯推断、垃圾邮件过滤、医学诊断大数定律样本均值 → 期望依概率 / 几乎必然蒙特卡洛积分、频率稳定性中心极限定理均值分布 → 正态依分布假设检验、置信区间、误差分析五、综合应用A/B 测试中的 CLT 与贝叶斯场景比较两个网页版本的点击率方法1频率学派基于 CLT# 模拟 A/B 测试数据n_A,n_B1000,1000clicks_A,clicks_B120,150p_Aclicks_A/n_A p_Bclicks_B/n_B# 标准误SESEnp.sqrt(p_A*(1-p_A)/n_Ap_B*(1-p_B)/n_B)# z 统计量z(p_B-p_A)/SE p_value2*(1-norm.cdf(abs(z)))print(fp_A {p_A:.3f}, p_B {p_B:.3f})print(fz {z:.2f}, p-value {p_value:.4f})方法2贝叶斯Beta-Bernoulli# 先验 Beta(1,1)alpha_A,beta_A1clicks_A,1n_A-clicks_A alpha_B,beta_B1clicks_B,1n_B-clicks_B# 蒙特卡洛模拟后验samples_Abeta.rvs(alpha_A,beta_A,size10000)samples_Bbeta.rvs(alpha_B,beta_B,size10000)prob_B_betternp.mean(samples_Bsamples_A)print(fP(版本B更好 | 数据) {prob_B_better:.4f})✅ 贝叶斯给出直接的概率解释更符合直觉。六、结语贝叶斯定理教你如何理性更新信念大数定律保证长期频率稳定中心极限定理赋予你用正态分布近似复杂问题的能力。后续python过渡项目部分代码已经上传至gitee后续会逐步更新。资料关注公众号咚咚王giteehttps://gitee.com/wy18585051844/ai_learning《Python编程从入门到实践》《利用Python进行数据分析》《算法导论中文第三版》《概率论与数理统计第四版 (盛骤) 》《程序员的数学》《线性代数应该这样学第3版》《微积分和数学分析引论》《西瓜书周志华-机器学习》《TensorFlow机器学习实战指南》《Sklearn与TensorFlow机器学习实用指南》《模式识别第四版》《深度学习 deep learning》伊恩·古德费洛著 花书《Python深度学习第二版(中文版)【纯文本】 (登封大数据 (Francois Choliet)) (Z-Library)》《深入浅出神经网络与深度学习(迈克尔·尼尔森MichaelNielsen》《自然语言处理综论 第2版》《Natural-Language-Processing-with-PyTorch》《计算机视觉-算法与应用(中文版)》《Learning OpenCV 4》《AIGC智能创作时代》杜雨张孜铭《AIGC原理与实践零基础学大语言模型、扩散模型和多模态模型》《从零构建大语言模型中文版》《实战AI大模型》《AI 3.0》