首页/文章/ 详情

预备知识6-概率学习笔记

21小时前浏览3

一、基本概率论

在统计学中,我们把从概率分布中抽取样本的过程称为抽样(sampling)。
将概率分配给一些离散选择的分布称为多项分布 (multinomial distribution)。





























import torchfrom torch.distributions import multinomialfairProbs = torch.ones([6], dtype=torch.float32)/6.0# 多项分布Multinomial()是torch.distributions.multinomial中的一个类.# 接受四个参数(total_count=1, probs=None, logits=None, validate_args=None)# a.total_count接受的是int型参数,指的是单次抽样中样本的个数。# b.probs接受的是Tensor型参数,指的是各事件发生的概率,也可以传入频数。若传入的是频数,#   可以通过probs属性查看对应的概率分布。multinomial.Multinomial(1, fairProbs).probs# c.logits接受的是Tensor型参数,和probs的作用一样,不过其指的是各事件概率的自然对数.#   同样的也可以传入频数,在传入频数后可以通过logits属性查看对应的对数概率分布。# d.validate_args用于指定是否检查参数的合法性# sample()是类Multinomial()中用来抽样的函数。# 仅接收一个参数 (sample_shape=torch.Size()),用来指定要抽样的次数,# 默认情况下仅抽样一次,输出一个形状为(len(probs), )的张量,# 否则,输出为(sample_shape, len(probs))的张量。# 一次掷色print(multinomial.Multinomial(1, fairProbs).sample()) # tensor([0., 0., 1., 0., 0., 0.])# 多次掷色print(multinomial.Multinomial(10, fairProbs).sample()) # tensor([1., 2., 1., 1., 2., 3.])print(multinomial.Multinomial(1000, fairProbs).sample()) # tensor([192., 167., 148., 167., 152., 174.])count= multinomial.Multinomial(10000, fairProbs).sample()print(count/10000.0) # tensor([0.17110.17160.16840.16320.16490.1608])# 随着次数的增加,各个样本逐渐收敛到真实的概率值counts = multinomial.Multinomial(10, fairProbs).sample((500,))print(counts)cum_counts = counts.cumsum(dim=0)print(cum_counts)estimates = cum_counts / cum_counts.sum(dim=1, keepdims=True)print(estimates)
概率论公理
在处理骰 子掷出时,我们将集 合S = {1, 2, 3, 4, 5, 6} 称为样本空间(sample space)或结果空间(outcome space),其中每个元素都是结果(outcome)。
事件(event)是一组给定样本空间的随机结果。
概率(probability)可以被认为是将集 合映射到真实值的函数。
在给定的样本空间S中,事件A的概率,表示 为P(A),满足以下属性:
  1. 对于任意事件A,其概率从不会是负数,即P(A) ≥ 0;
  2. 整个样本空间的概率为1,即P(S) = 1;
  3. 对于互斥(mutually exclusive)事件(对于所有ij都有Ai ∩ Aj = ∅)的任意一个可数序列A1, A2, . . ., 序列中任意一个事件发生的概率等于它们各自发生的概率之和,即
     

随机变量(Random Variable)

随机变量是概率论与统计学的核心概念,用于量化随机现象的结果随机变量分为离散型和连续型两大类,其区别关键在于取值类型和概率描述方式

二、处理多个随机变量

联合概率(joint probability):多个事件同时发生的概率。对于任何a和b的取值,P(A = a, B = b) ≤ P(A = a),即a事件和b事件同时发生的概率必然不大于a事件单独发生的概率。
条件概率(conditional probability):在一些事件发生的前提下,另一些事件发生的概率,记为P(B=b | A=a) = P(A=a, B=b)/P(A=a)。
贝叶斯定理(Bayes’theorem):P(A|B) = P(B|A)∙P(A)/P(B)
边际化
独立性:若随机变量A和B是独立的,则事件A的发生跟B事件的发生无关,其充要条件为:随机变量的联合分布是其各自分布的乘积,即P(A,B)=P(A)∙P(B)。同样地,给定另一个随机变量C时,随机变量A和B是条件独立的(conditionally independent),当且仅当P(A,B|C) = P(A|C)P(B|C)。


来源:檐苔
UM
著作权归作者所有,欢迎分享,未经许可,不得转载
首次发布时间:2025-08-26
最近编辑:21小时前
青瓦松
硕士 签名征集中
获赞 14粉丝 1文章 45课程 0
点赞
收藏
作者推荐

多层感知机2-模型选择、欠拟合和过拟合学习笔记

机器学习的目标是发现某些模式,这些模式能捕捉到训练集潜在总体的规律;若做到了这点,对从未遇到过的个体,利用这些模式也可以进行评估风险。如何发现可泛化的模式是机器学习的根本问题。过拟合:一个模型出现在训练集数据上拟合程度高,而在测试集(新数据)上的拟合能力差的现象称为过拟合(overfitting)。当训练误差明显低于验证误差即表明出现了严重的过拟合。用于对抗过拟合的技术称为正则化(regularization)。一、训练误差和泛化误差训练误差(training error):模型在训练数据集上计算得到的误差。泛化误差(generalization error):模型应用在同样从原始样本的分布中抽取的无限多数据样本时,模型误差的期望值。问题是,泛化误差无法准确地计算。因为无限多数据样本是一个虚拟对象。在实际中,通过将模型应用于一个独立的测试集来估计泛化误差,该测试集由随机选取的、未曾在训练集中出现的数据样本构成。二、模型选择模型复杂性:对于神经网络,通常将需要更多训练迭代的模型视为复杂的,而需要早停(early stopping)的模型-即较少训练迭代周期, 就不那么复杂。统计学家认为,能够轻松解释任意事实的模型是复杂的,而表达能力有限但仍能很好地解释数据的模型可能更有现实用途。模型选择:在机器学习中,通过评估几个候选模型后选择最终的模型。这个过程叫做模型选择。有时,需要进行比较的模型在本质上是完全不同的(如决策树与线性模型)。又有时,需要比较不同的超参数设置下的同一类模型。K折交叉验证:将原始训练数据分成K个不重叠的子集;然后执行K次模型训练和验证,每次在K−1个子集上进行训练,并在剩余的一个子集(在该轮中没有用于训练的子集)上进行验证;最后,通过对K次实验的结果取平均来估计训练和验证误差。欠拟合:若一个模型不能降低训练误差,这可能意味着模型过于简单(即表达能力不足),无法捕获试图学习的模式;同时训练误差和验证误差之间的泛化误差很小;此时可以用一个更复杂的模型以降低训练误差。这种现象被称为欠拟合(underfitting)。模型过拟合和欠拟合评估:是否过拟合或欠拟合可能取决于模型复杂性和可用训练数据集的大小。如下图所示,模型越复杂训练误差将越小,但是泛化误差反而变大,因此在模型选择时,须同时平衡训练误差和泛化误差以提高模型的可用性。训练数据集中的样本过小,训练出来的模型可能出现严重的过拟合。对于许多任务,深度学习只有在有数千个训练样本时才优于线性模型。三、权重衰减(Weight Decay)权重衰减是一种正则化技术,通过给损失函数增加模型权重L2范数的惩罚(penalty)来让模型权重不要太大,以减小模型的复杂度,实现抑制模型的过拟合而提高模型的泛化性的目的。数据扰动:训练数据点距离真实模型的偏离程度就是数据扰动。正则化的目标是减小方差或是说减小数据扰动所造成的影响。权重衰减的具体公式如下:其中,L_0是原损失函数;λ是一个超参,负责控制权重衰减的强弱;||W||^2为模型参数的L2范数的平方。从上面的公式,可得到如下结论:模型的权重越大,Loss就会越大;λ越大,权重衰减的就越厉害;若λ过大,将导致原Loss的占比较低,最终使模型效果变差。权重衰减的注意事项:权重衰减实际效果并不理想,尤其是当模型很复杂时,权重衰退的效果可能会更小;权重系数λ通常取1e-3;权重衰退通常不对bias做;权重衰减取值越大,对抑制模型的强度越大。但这并不说明越大越好,太大的话,可能会导致模型欠拟合。四、暂退法(Dropout)扰动的稳健性:函数不应该对其输入的微小变化敏感。在训练过程中,计算后续层之前向网络的每一层注入噪声。暂退法在前向传播过程中,计算每一内部层的同时注入噪声,这已经成为训练神经网络的常用技术。这种方法之所以被称为暂退法,主要是在训练过程中丢弃(drop out)一些神经元。在标准暂退法 正则化中,通过按保留的节点的分数进行规范化来消除每一层的偏差。换言之,每个中间活性值h以暂退概率p由随机变量h ′替换,如下所示:根据此模型的设计,其期望值保持不变,即E[h′] = h。来源:檐苔

未登录
还没有评论
课程
培训
服务
行家
VIP会员 学习计划 福利任务
下载APP
联系我们
帮助与反馈