当前位置: > 投稿>正文

概率论的定义大全,来学习一下概率论基本知识

04-30 互联网 未知 投稿

关于【概率论的定义大全】,今天乾乾小编给您分享一下,如果对您有所帮助别忘了关注本站哦。

1、概率论的定义大全:来学习一下概率论基本知识,它能防止你的模型过拟合

最近,有位印度小哥Nimish Mishra在Medium上分享了一篇概率论基础知识,也是一篇零基础的入门课程。

概率论的定义大全,来学习一下概率论基本知识

这篇文章提到了很多基本概念和重要的变量分布。其中有些概念,比如协方差,可以帮助我们理解机器学习中变量之间的关系。

这位小哥提到的指数分布,则在神经网络调参中有着直接的应用。

下面,就让我们一起来跟他学习一下吧。

概率论中的基本概念

我们先从掷硬币开始谈起。

随机变量可以是离散的,也可以是连续的。比如抛硬币的结果就是一个离散的随机变量,而降雨量就是一个连续的随机变量。

为了方便起见,我们可以定义一个变量x,当硬币出现正面时x=1,当硬币出现反面时x=0。对于降雨量这个随机变量而言,我们只能定义x是一个大于0的实数。

随机变量的结果虽然不可预知,但并不是完全不可捉摸的,它有一定的规律性,这就是概率分布函数

对于离散变量,它是x的概率为p,我们可以定义f(x)=p。在抛硬币这个问题中,f(0)=1/2,f(1)=1/2。

对于连续变量,x的取值是连续的,我们不能再说x等于某个值的概率是多少,而是用一个概率密度函数来表示它,当x取值在a和b两个数之间时,它的概率可以用以下积分结果表示:

概率论的定义大全,来学习一下概率论基本知识

弄清楚概率分布函数后,接下来我们就可以定义这些量:期望值方差协方差

期望值又叫平均值,一般用μ表示。以离散随机变量为例,把变量的值和对应的概率相乘,然后把所有乘积相加起来,就是期望值:

概率论的定义大全,来学习一下概率论基本知识

方差用来衡量随机变量偏离平均值的程度,它是变量X减平均值μ的平方——(X-μ)^2——的平均值。

概率论的定义大全,来学习一下概率论基本知识

协方差表示不同随机变量之间关联的强弱。下面是四个变量ABCD之间的协方差表格:

概率论的定义大全,来学习一下概率论基本知识

当两个变量的协方差是负数时,表示一个变量值增加的同时,另一个变量值在减少。如果协方差是0,表示一个变量的值不会影响另一个变量。

常见的几种概率分布

我们还是以抛硬币为例,这个随机变量只能取正面1、反面0两个值,是一种伯努利分布

概率论的定义大全,来学习一下概率论基本知识

对抛硬币来说, φ=0.5。

如果我们要预测n次抛硬币中有k次出现正面的概率是多少,还需要引入二项分布

概率论的定义大全,来学习一下概率论基本知识

其中p表示硬币在单次投掷中出现正面的概率,也就是0.5。

以上是离散变量的情况,对于连续的随机变量,还有最常见的高斯分布(正态分布)、指数分布等等。

高斯分布在概率论中具有非常重要的地位,在统计学中,很多随机变量都符合高斯分布。它的定义如下:

概率论的定义大全,来学习一下概率论基本知识

其中μ是期望值,σ是标准差(方差的平方根)。高斯分布的函数图像如下,变量在平均值附近左右一个标准差内的概率是68.2%。

概率论的定义大全,来学习一下概率论基本知识

在深度学习中,我们需要调节神经网络的参数以防止过度拟合。这时候会用到指数分布:

概率论的定义大全,来学习一下概率论基本知识

λ值越大,变量x的分布越集中。

概率论的定义大全,来学习一下概率论基本知识

实际应用

概率不仅仅是掌握机器学习必需的基础知识,它也有一些直接的应用。

在前文中我们提到过,指数分布可以帮助调节神经网络的参数,防止过拟合。这一点很重要,因为过拟合会导致神经网络的性能不佳。

在Kaggle的一项预测客户交易的任务中,作者Nimish用概率论的方法找到了内部规律。

Nimish绘制了200个变量对结果分布的影响:

概率论的定义大全,来学习一下概率论基本知识

这组图是不同的两个参数(以0和1表示)条件下,相同变量的不同概率分布。第一行中的前3个图分布不完全相同,而第4个图几乎完全重叠。所以,第4个参数对随机变量可能没有影响。

以上只是对概率论的初步介绍,如果想要了解更多,可以去看一些相关专辑,也可以去看看Nimish的专栏文章。

原文链接:

https://towardsdatascience.com/probability-theory-for-deep-learning-9551b9255cf0

诚挚招聘

2、概率论的定义大全,概率论的基本概念

频率和概率

概率:

该划随机事件发生的可能性大小的数量指标是一个客观存在的量。

概率是该划随机事件发生等可能大小的数量指标。

事件A的概率记为P(A)。

频率:

定义:在相同条件下,进行了n次试验,事件A发生了m次,称比值fn(A)=m/n.

概率论的定义大全,来学习一下概率论基本知识

频率从一定程度上反映了事件发生等可能的大小。它随着试验的次数、试验者的变化会有所不同。

频率具有稳定性:在一定条件(意义)下,频率稳定于某个常数。

频率的不确定性:不会随试验次数的增大,趋于特定常数。

频率与概率的关系:

频率不是概率,但在某种意义下,频率稳定于概率。

fn(A)=m/n 频率具有事前不可预言性

频率性质:

(1)对任意事件A,有0=<fn(A)<=1

(2)fn(s)=1

古典概率:

定义:设E是一个随机试验,若它满足以下两个条件:

(1)仅有有限多个基本事件

(2)每个基本事件发生的可能性相等。

则称E是古典概型的试验。

定义:设试验E为古典概型试验,Ai,i=1,2,......,n是基本事件,则由

p(A)=A所含的基本事件个数/基本事件总数=A所含样本点的数目/样本空间的样本点总数

所确定的概率为事件A的古典概率。

古典概率的性质与频率的性质相类似

概率的公理化定义:

概率的客观性和唯一性:

人们寻求建立一种数量指标——概率,用来刻画随机事件发生的等可能性大小。

试验条件确定的前提下,随机事件发生的等可能性大小是一个客观存在的量。

概率是随机事件发生等可能性大小的客观度量。

概率应具有客观性和唯一性。

一旦试验条件确定,一个随机事件发生的概率值不能因人因时而异,更不能因计算方法的不同而改变。

概率计算方法分析:

怎样客观度量随机事件发生等可能大小?

1.频率,不确定,不可预言

2.古典概型,局限性,要求随机事件唯一且各个基本事件发生的概率等可能

3.几何测度和几何概率 突破古典概率的局限性 但要求样本点在样本空间的分布具有均匀性,实际试验很难满足,几何概率定义也有明显的局限性。

概率的公理化抽象:

没有严格的概率定义,严重阻碍概率论的进一步发展和应用。

追求概率的严格数学定义,具有客观性和唯一性的同时,还具有普适性及科学性。

可验证以上概率具有定义的共同属性:

(1)对任意事件A,有0=<P(A)<=1;

(2)p(s)=1;

(3)或A1,A2,...,An互不相容,则它们和事件的概率等于各事件概率之和。

定义 设随机试验E的样本空间为S,若对于E的每一事件A都赋予一个实数P(A),其对应规则满足以下三条

(1)非负性 对任意事件A,有0=<P(A)<=1;

(2)规范性 P(S)=1;

(3)可列可加性 对于互不相容的事件列,它们的和事件的概率等于各事件概率之和。

称P(A)为事件A的概率。

概率公理化的科学性:

概率的公理化定义是科学的公理化结构:

(1)无矛盾,即公理化结构中的三个条件不相互矛盾;

(2)完备的,可由结构中三条用逻辑推理出概率的其它性质,该定义具有高度的抽象性和严密的逻辑性。

注:规范性是抽象过程中的人为规定,合乎常识且反映了直观实际背景。

概率的基本性质:

1.不可能事件概率为0,p(∅)=0;

证明:

∵∅=∅∪∅U..,

p(∅)=p(∅∪∅U..)

由可列可加性 =p(∅) p(∅) ..

∴p(∅)=0

2.有限可加性

3.对任意对立事件A,B有P(A) P(B)=1

4.单调性,若随机事件A和B满足A⊂B,则,P(A)<=P(B),P(B-A)=P(B)-P(A)

5.概率加法概率,对任意两个随机事件A和B有

P(AUB)=P(A) P(B)-P(AB)

重重之重,可列可加性。

本文关键词:概率论中的,概率论的基本概念,概率论概率的定义,概率论的定义大全是什么,概率论的定义大全图解。这就是关于《概率论的定义大全,来学习一下概率论基本知识》的所有内容,希望对您能有所帮助!更多的知识请继续关注《犇涌向乾》百科知识网站:http://www.029ztxx.com!

版权声明: 本站仅提供信息存储空间服务,旨在传递更多信息,不拥有所有权,不承担相关法律责任,不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请发送邮件至 举报,一经查实,本站将立刻删除。

猜你喜欢