随机变量的分布律怎么求啊?

数学题来啦!先来个小挑战,a+b等于啥?其实啊,它等于1 减去1 /4 再减去1 /4 ,结果就是1 /2 啦。
那啥,P{X=0|Y=0}=1 /2 这个公式,简单来说就是,当Y等于0的时候,X等于0的概率也是1 /2 好啦,如果a等于1 /4 ,那b自然也就等于1 /4 啦。
再举个例子,X的边缘分布是X-1 01 ,概率分别是0.2 、0.5 、0.3 ,而Z=X+Y的分布律是Z-1 01 2 ,概率分别是0、0.4 、0.5 、0.1 说到这,我得提一下,做实验的时候,我们往往更关心结果的某些函数,而不是结果本身。
比如说,掷骰子时,我们可能只关心两颗骰子的和是不是7 ,而不是具体是哪两个数字组合成的。
这些我们关注的量,其实就是随机变量啦,它们是定义在样本空间上的实值函数。
这可是我从百度百科上学到的哦!

考研数学三 知识点

考研数学三的核心内容可以概括为三大板块:微积分、线性代数和概率论与数理统计。
下面,我就来详细地为大家梳理一下这三个板块的知识点。

首先,我们得聊聊微积分。
这部分主要包括函数、极限、连续等概念,还有函数的性质、复合函数与反函数、基本初等函数与初等函数等。
数列极限与函数极限的定义和性质,四则运算法则,还有两个重要的极限公式,比如$\lim_{xto0}frac{sinx}{x}=1 $和$\lim_{xtoinfty}(1 +frac{1 }{x})^x=e$。
无穷小量与无穷大量的概念,连续性的讨论,以及间断点的类型和闭区间上连续函数的性质,这些都是微积分中不可或缺的知识点。

接下来,我们得聊聊一元函数微分学。
导数的定义、几何意义、物理意义,导数与连续的关系,求导公式与法则,高阶导数、微分的概念与运算,中值定理,泰勒公式,函数的单调性、极值、最大值最小值,凹凸性与拐点,渐近线,这些都是微分学中的重要内容。

然后是一元函数积分学。
不定积分、定积分的概念、性质、基本公式,换元积分法与分部积分法,定积分的应用,比如几何应用和物理应用,这些都是积分学的基础。

多元函数微积分学,则是多元函数的概念、极限、连续、偏导数、全微分,复合函数与隐函数的偏导数求法,方向导数与梯度,多元函数极值与条件极值,拉格朗日乘数法,二重积分、三重积分,曲线积分与曲面积分,这些都是多元函数微积分学的主要内容。

线性代数部分,行列式、矩阵、向量、线性方程组、矩阵的特征值与特征向量、二次型,这些都是线性代数中的核心知识点。

概率论与数理统计部分,随机事件与概率、一维随机变量及其分布、多维随机变量及其分布、随机变量的数字特征、大数定律与中心极限定理、数理统计的基本概念、参数估计、假设检验,这些都是概率论与数理统计中的主要内容。

以上就是考研数学三的主要知识点,希望对大家有所帮助。

比较二维随机变量与一维随机变量的分布函数的性质有何异同

行,咱们就拿正态分布来打个比方。
一维的正态分布,你看看它的概率密度函数,活脱脱一条对称的钟形线。
到了二维,那就更直观了,就像一口倒扣的钟,不管你从哪个角度去看,都是那个钟形。
所以你看,一维随机变量的分布函数,搞定了就是做一个定积分;而二维的呢,就得搞个二重积分了。

说到随机变量的分布函数,它得有点特性和规矩:
1 . 单调性:这玩意儿得是单调递增的,简单说就是x1 小于x2 的时候,F(x1 )肯定小于等于F(x2 )。
2 . 有界性:它还得在0到1 之间取值,不能超过这个范围。
再具体点,当x趋于负无穷大的时候,F(x)趋于0;当x趋于正无穷大的时候,F(x)趋于1 3 . 右连续性:这表示当x接近某个值x0的时候,F(x)从右边接近x0的极限,应该等于F(x0)。

再说说离散型随机变量的分布列,它也有自己的小九九:
1 . 非负性:分布列里的每个概率p(xi)都得大于等于0,不能是负数。
2 . 正则性:所有概率加起来,必须等于1 这就像一个完整的饼,切下来所有小块加起来就是整个饼。
3 . 分布函数的图形:分布函数的图形,要么是有限级数的阶梯函数,要么是无穷级数的阶梯函数。
这图形看起来就像是一级一级的楼梯。

扩展一下知识面,随机变量这东西,在不同的条件下,可能会因为各种偶然因素的影响而取各种不同的值,所以它具有不确定性和随机性。
但是,这些取值落在某个范围的概率是一定的。
这种变量就叫做随机变量。
随机变量要么是离散型的,要么是连续型的。
比如说,分析测试中的测定值就是一个典型的随机变量,被测定量的取值可能在某一范围内随机变化,具体取什么值在测定之前是无法确定的,但测定的结果是确定的。
如果你多做几次测定,你会发现这些测定值其实是有统计规律性的。

最后,随机变量和模糊变量虽然都有不确定性,但它们的本质区别在于,模糊变量的测定结果仍然具有不确定性,也就是模糊性。

随机变量函数的分布

研究随机变量函数的分布,其实就是在搞清楚一个随机变量取了啥值,它的某个函数又会取啥值,以及对应的概率分布是啥样。
这事儿分一维和二维两种情况来聊。

先说说一维的情况。
要是这个随机变量是离散型的,比如设$Y$是$X$的一个函数,即$Y=g(X)$,那我们只要把$X$的各种取值及其对应的概率列出来,然后看看哪些$X$的值能映射到同一个$Y$值,把它们的概率加起来,就成了$Y$取那个值的概率。
举个例子,如果$X$取$x_1 $的概率是$p_1 $,取$x_2 $的概率是$p_2 $,而$g(x_1 )=g(x_2 )$,那$Y$取$g(x_1 )$的概率就是$p_1 + p_2 $。

再来看连续型的情况。
这时候,$Y$的分布情况要看$X$的分布和$g(X)$这个函数是怎么变的。
$Y$的分布函数$F_1 (y)$可以通过积分$X$的密度函数$f(x)$来得到,即$F_1 (y)=\int_{g(x)\leq y} f(x) \, dx$。
如果$g(x)$是个严格单调的函数,而且它还能求反函数,那$Y$也会是个连续型随机变量,它的密度函数可以通过反函数和导数来表示,即$f_1 (y)=f(h(y))|h'(y)|$,这里$h(x)$就是$g(x)$的反函数。

然后是二维的情况,我们只讨论连续型的随机向量。
设$(X,Y)$有联合密度函数$f(x,y)$,$Z=g(X,Y)$是个一维随机变量。
这时候,$Z$的分布函数$F_Z(z)$可以通过对$f(x,y)$在满足$g(x,y)\leq z$的区域上积分得到。
如果$Z_1 =g_1 (X,Y)$和$Z_2 =g_2 (X,Y)$是两个一维随机变量,它们的联合分布函数$F_{\boldsymbol{Z}}(z_1 ,z_2 )$可以通过对$f(x,y)$在满足$g_1 (x,y)\leq z_1 $和$g_2 (x,y)\leq z_2 $的区域上积分得到。
如果这两个随机变量是独立的,即$f(x,y)=f_1 (x)f_2 (y)$,那计算起来会简单很多。

举个栗子,假设$X$和$Y$是独立的随机变量,分别有密度函数$f_1 (x)$和$f_2 (y)$,我们想知道$X+Y$的密度函数是啥。
可以先求出$X+Y$的分布函数$F_{X+Y}(z)$,它是通过在$x+y\leq z$的区域上对$f_1 (x)f_2 (y)$积分得到的。
然后对$z$求导,就能得到$f_{X+Y}(z)$,这个积分其实就叫做$f_1 $和$f_2 $的卷积。
还有另一种方法,就是用变量代换,设$x+y=v$,然后通过变换后的积分来求导,也能得到同样的结果。

再比如,已知$(X,Y)$服从二元正态分布,其中$\mu_1 =\mu_2 =1 $,$\sigma_1 ^2 =\sigma_2 ^2 =0.5 $,$\rho=0.5 $,我们想求$Z=|X-Y|$的密度函数和期望。
可以先求出$Z$的分布函数$F_Z(z)$,它是通过对二元正态分布的密度函数在满足$|x-y|通过一系列的计算,可以得到$F_Z(z)=\frac{2 \sqrt{\pi}}{\pi}e^{-z^2 }$。
然后,通过计算这个分布函数的积分,就能得到$Z$的期望值。