ChatGPT——助我学习系列 ChatGPT——助我学习系列
数理统计篇概率论条件概率 $x|\theta$ 和 $x,y|\theta$有什么关系 $x|\theta $表示在给定参数 $\theta$ 的情况下,随机变量 x 的概率分布。这意味着 x 的取值取决于参数 $\theta$。 $x,y
2023-02-26
What is Mutual Information? What is Mutual Information?
In the field of machine learning, when it comes to extracting relationships between variables, we often use Pearson cor
信息熵 信息熵
本文地址,转载自LR-bee 详细可内容可点击下面参考文章 参考1 参考2 一、自信息自信息:可以理解表示某一事件发生时所带来的信息量的多少,当事件发生的概率越大,则自信息越小,或者可以这样理解:某一事件发生的概率非常小,但是实际上却发生了
2023-01-01
论文储备知识 论文储备知识
实验消融实验消融实验类似于“控制变量法”。假设在某目标检测系统中,使用了A,B,C,取得了不错的效果,但是这个时候你并不知道这不错的效果是由于A,B,C中哪一个起的作用,于是你保留A,B,移除C进行实验来看一下C在整个系统中所起的作用。 数
常见不等式、等式与基础理论 常见不等式、等式与基础理论
常见不等式放缩 一: 一些重要恒等式 ⅰ:$1^2+2^2+…+n^2=\frac{n(n+1)(2n+1)}{6}$ ⅱ:$ 1^3+2^3+…+n^3=(1+2+…+n)^2 $ Ⅲ:$cosa+cos2a+…+cos2^na
2022-10-23
概率论与数理统计 概率论与数理统计
数字特征数学期望 方差 协方差的分配律 假设 $X$ 是一个 $n\times m$ 的矩阵,$Y$ 是一个 $m\times p$ 的矩阵,$A$ 是一个 $n\times n$ 的矩阵,$B$ 是一个 $p\times p$ 的
2022-10-10
矩阵理论-1范数、2范数、无穷范数的通俗理解 矩阵理论-1范数、2范数、无穷范数的通俗理解
本文转自调皮连续波,文章地址 引言很多人学完了矩阵理论或者数值分析,脑海里还是蒙的,有些比较基础的东西至今还没有一个深刻的理解,就比如矩阵理论中1范数、2范数,以及无穷范数代表什么含义呢? 范数的理解我们来讲个故事,保证大家能够明白,这里主
2022-10-02
线性代数 线性代数
正定/负定、半正定/半负定 方程有解判定对于齐次线性方程组来说一定有解; 对于非齐次: 数字特征协方差在概率论和统计学中,协方差用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。 期望值分别为E[X]与
2022-09-29
矩阵、向量的导数运算 矩阵、向量的导数运算
前置知识亚导数 向量求导 例子 向量对向量求导本文转自Eastzero,文章地址 总结
2022-09-28
常见分布的数学期望以及方差公式 常见分布的数学期望以及方差公式
转载自二喵君,文章地址 一、通用公式【数学期望】1》求解数学期望 2》数学期望的性质 二、常用分布的期望与方差1》精简版: 2》叨叨版:
2022-09-27
求和求乘累加累乘符号运算法则 求和求乘累加累乘符号运算法则
本文转载自kyle1314608 累加符 累乘
2022-09-21
详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解 详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解
最大似然估计(Maximum likelihood estimation, 简称MLE)和最大后验概率估计(Maximum a posteriori estimation, 简称MAP)是很常用的两种参数估计方法,如果不理解这两种方法的思路,很容易弄混它们。下文将详细说明MLE和MAP的思路与区别。
2022-09-17