前言:本篇博客包括了随机变量和图模型推理之间的所有内容。学好《统计学》需要《微积分》,《线性代数》,《矩阵论》和《实变函数与泛函数分析》作为基础,另外再增加《凸优化》。如果只是应用的话,这些知识吸收60%就足够了,但是要搞研究的话,不仅要吸收80%以上,另外还要研究《神经生物学从神经元到大脑》和物理学,从
中
吸收灵感,为研究下一代AI打下好的基础,用几何问题解决代数问题是不可避免的。下一代AI的突破...
Cauchy–Schwarz
不等式
的
形式
为:
[E(XY)]2≤E(X2)E(Y2)
[\text{E}(XY)]^2 \leq \text{E}(X^2)\text{E}(Y^2)
[E(XY)]2≤E(X2)E(Y2)
证明非常简单,只需先将YYY分解为相互正交的两部分(类似于OLS回归):
Y=E(XY)E(X2)X+(Y−E(XY)E(X2)X)
Y=\dfrac{\text{E}(XY)}{\text{E}(X^2)}
1. Jensen
不等式
Jensen
不等式
的意义是:函数的
期望
大于等于
期望
的函数,即
E(f(x))≥f(E(x))E(f(x))\geq f(E(x))或者写成凸函数条件表达式的
形式
,在这个表达式式
中
,tt 相当于 x1x_1 的
概率
, (1−t)(1-t) 相当于 x2x_2 的
概率
:
tf(x1)+(1−t)f(x2)≥f(tx1+(1−t)x2)t∈{0,1}tf(x_1)+(1-t
本篇博文给出涉及
期望
的三个
不等式
的证明,之后我们会经常遇到这些
不等式
,首先介绍一个有用的结论。定理1:\textbf{定理1:}令XX表示随机变量,mm是一个正整数,假设E[Xm]E[X^m]存在,如果kk是一个正数且k≤mk\leq m,那么E[Xk]E[X^k]存在。证明:\textbf{证明:}我们证明连续情况;离散情况与之类似,只需要将积分符号换成求和符号即可,令f(x)f(x)是XX的pd
H
olde
r
不等式
设ai,bi>0a_i,b_i>0ai,bi>0
p,q>1,1p+1q=1p,q>1,\frac{1}{p}+\frac{1}{q}=1p,q>1,p1+q1=1
有∑i=1naibi≤(∑i=1naip)1p(∑i=1nbiq)1q\sum_{i=1}^{n} a_i b_i \le (\sum_{i=1}^{n}a_i^{p})^{\frac{1}{p}}(\sum_{i=1}^{n}b_i^{q})^{\frac{1}{q}}∑i=1
Tomcat是一个Servlet容器,提供了对Servlet/JSP技术的支持,也提供了JNDI与JMX API的实现。Tomcat并不是完整的JavaEE应用服务器,因为它并未对完整的JavaEE api提供支持。但是如今流行开源框架如Spring、Struts、Hibernate等均可运行在tomcat
中
。