优快云的Markdown编辑器用$...$就可以渲染公式了,有的编辑器可能还需要再加一层``
| 符号 | 公式写法 | 名称 | 简短介绍 |
|---|---|---|---|
| R \mathbb{R} R | \mathbb{R} | 实数集 | 所有实数的集合。 |
| ( a b c d ) \begin{pmatrix}a & b\\ c & d\end{pmatrix} (acbd) | \begin{pmatrix}a & b\\ c & d\end{pmatrix} | 矩阵 | 用来表示二维数组或线性变换。 |
| T ∈ R I × J × K \mathcal{T} \in \mathbb{R}^{I \times J \times K} T∈RI×J×K | \mathcal{T} \in \mathbb{R}^{I \times J \times K} | 张量 | 多维数组,比矩阵维数更高。 |
| A T A^T AT | A^T | 转置 | 把矩阵的行列互换。 |
| σ ( x ) = 1 1 + e − x \sigma(x)=\frac{1}{1+e^{-x}} σ(x)=1+e−x1 | \sigma(x)=\frac{1}{1+e^{-x}} | Sigmoid 激活函数 | 神经网络中常用的 S 型激活函数。 |
| s o f t m a x ( z i ) = e z i ∑ j e z j \mathrm{softmax}(z_i) = \frac{e^{z_i}}{\sum_j e^{z_j}} softmax(zi)=∑jezjezi | \mathrm{softmax}(z_i) = \frac{e^{z_i}}{\sum_j e^{z_j}} | softmax 函数 | 多分类输出归一化。 |
| R e L U ( x ) = max ( 0 , x ) \mathrm{ReLU}(x)=\max(0, x) ReLU(x)=max(0,x) | \mathrm{ReLU}(x)=\max(0, x) | ReLU 激活函数 | 常用非线性激活函数。 |
| s o f t p l u s ( x ) = log ( 1 + e x ) \mathrm{softplus}(x) = \log(1 + e^x) softplus(x)=log(1+ex) | \mathrm{softplus}(x) = \log(1 + e^x) | softplus 函数 | 平滑版 ReLU。 |
| tanh ( x ) = e x − e − x e x + e − x \tanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}} tanh(x)=ex+e−xex−e−x | \tanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}} | tanh 激活函数 | 常用激活函数,输出在 ((-1,1)) 区间。 |
| ⟨ u , v ⟩ \langle u, v \rangle ⟨u,v⟩ | \langle u, v \rangle | 点积/内积 | 向量间的内积。 |
| A ⊙ B A \odot B A⊙B | A \odot B | 哈达玛积(Hadamard product) | 对应元素相乘的矩阵乘积。 |
| ∑ i = 1 n x i \sum_{i=1}^n x_i i=1∑nxi | \sum_{i=1}^n x_i | 求和 | 把一串数加起来。 |
| ∏ i = 1 n x i \prod_{i=1}^n x_i i=1∏nxi | \prod_{i=1}^n x_i | 求积 | 连乘一串数。 |
| O ( n log n ) \mathcal{O}(n \log n) O(nlogn) | \mathcal{O}(n \log n) | 复杂度(时间/空间) | 算法随着输入规模的增长,其时间或空间开销渐近被 (n \log n) 控制。 |
| E x ∼ p [ f ( x ) ] \mathbb{E}_{x\sim p}[f(x)] Ex∼p[f(x)] | \mathbb{E}_{x\sim p}[f(x)] | 期望 | 随机变量的平均值。 |
| y ∝ x y \propto x y∝x | y \propto x | 正比 | 表示 (y) 与 (x) 成正比。 |
| lim x → 0 sin x x = 1 \lim_{x \to 0} \frac{\sin x}{x} = 1 x→0limxsinx=1 | \lim_{x \to 0} \frac{\sin x}{x} = 1 | 极限 | 函数在某点附近的趋近值。 |
| ∫ a b f ( x ) d x \int_a^b f(x)\,dx ∫abf(x)dx | \int_a^b f(x)\,dx | 积分 | 连续求和,一种累积量。 |
| ∇ x L ( θ ) \nabla_x L(\theta) ∇xL(θ) | \nabla_x L(\theta) | 梯度 | 表示函数对参数的偏导/变化率向量。 |
| θ ← θ − η ∇ θ L ( θ ) \theta \leftarrow \theta - \eta \nabla_\theta L(\theta) θ←θ−η∇θL(θ) | \theta \leftarrow \theta - \eta \nabla_\theta L(\theta) | 梯度下降更新 | 参数朝损失函数下降方向更新。 |
| d d x f ( g ( x ) ) = f ′ ( g ( x ) ) g ′ ( x ) \frac{d}{dx} f(g(x)) = f'(g(x))\,g'(x) dxdf(g(x))=f′(g(x))g′(x) | \frac{d}{dx} f(g(x)) = f'(g(x)) g'(x) | 链式法则/复合函数的导数 | 函数复合求导。 |
| ∂ f ∂ x \frac{\partial f}{\partial x} ∂x∂f | \frac{\partial f}{\partial x} | 偏导数 | 多元函数中对某一个变量求导。 |
| ∇ 2 f ( x ) \nabla^2 f(x) ∇2f(x) | \nabla^2 f(x) | Hessian 矩阵(二阶偏导矩阵) | 用于判断极值/曲率性质。 |
| Δ f = ∇ 2 f \Delta f = \nabla^2 f Δf=∇2f | \Delta f = \nabla^2 f | 拉普拉斯算子 | 在偏微分方程、图模型等场景中描述二阶导数之和。 |
| 1 { x > 0 } 1_{\{x>0\}} 1{x>0} | 1_{\{x>0\}} | 指标函数 | 如果条件成立取 1,否则取 0。 |
| δ i j = { 1 i = j 0 i ≠ j \delta_{ij} = \begin{cases}1 & i=j \\ 0 & i\neq j\end{cases} δij={10i=ji=j | \delta_{ij} = \begin{cases}1 & i=j \\ 0 & i\neq j\end{cases} | Kronecker delta | 等于指标函数的一种形式,用于简化张量/矩阵表达。 |
| log x , ln x \log x,\ \ln x logx, lnx | \log x, \ln x | 对数 | 自然对数或其他底的对数。 |
| ( f ∗ g ) ( t ) = ∫ f ( τ ) g ( t − τ ) d τ (f * g)(t) = \int f(\tau) g(t-\tau)\,d\tau (f∗g)(t)=∫f(τ)g(t−τ)dτ | (f * g)(t) = \int f(\tau) g(t-\tau)\,d\tau | 卷积 | 用于信号处理/卷积神经网络等。 |
| ϵ ∼ N ( 0 , σ 2 ) \epsilon \sim \mathcal{N}(0, \sigma^2) ϵ∼N(0,σ2) | \epsilon \sim \mathcal{N}(0, \sigma^2) | 误差项/噪声 | 随机误差或噪声分布。 |
| ∣ x ∣ 1 = ∑ i ∣ x i ∣ |x|_1 = \sum_i |x_i| ∣x∣1=i∑∣xi∣ | |x|_1 = \sum_i |x_i| | L1 范数 | 对向量元素绝对值求和。 |
| ∣ x ∣ 2 |x|_2 ∣x∣2 | |x|_2 | 2-范数(范式) | 衡量向量或矩阵的“长度”或“大小”。 |
| ∣ x ∣ ∞ = max i ∣ x i ∣ |x|_\infty = \max_i |x_i| ∣x∣∞=imax∣xi∣ | |x|_\infty = \max_i |x_i| | L∞ 范数/最大范数 | 向量中最大绝对值。 |
| D K L ( p ∣ q ) = ∑ x p ( x ) log p ( x ) q ( x ) D_{\mathrm{KL}}(p | q) = \sum_x p(x) \log \frac{p(x)}{q(x)} DKL(p∣q)=x∑p(x)logq(x)p(x) | D_{\mathrm{KL}}(p | q) = \sum_x p(x) \log \frac{p(x)}{q(x)} | KL 散度 | 衡量两个概率分布之间的信息差异。 |
| H ( p ) = − ∑ x p ( x ) log p ( x ) H(p) = -\sum_x p(x)\log p(x) H(p)=−x∑p(x)logp(x) | H(p) = -\sum_x p(x)\log p(x) | 熵 | 分布的不确定性。 |
| H ( p , q ) = − ∑ x p ( x ) log q ( x ) H(p, q) = -\sum_x p(x) \log q(x) H(p,q)=−x∑p(x)logq(x) | H(p, q) = -\sum_x p(x) \log q(x) | 交叉熵 | 衡量两个分布间差异。 |
| max i x i , min i x i \max_i x_i, \; \min_i x_i imaxxi,iminxi | \max_i x_i, \min_i x_i | 最大/最小值 | 求一组数中的最大/最小值。 |
1095

被折叠的 条评论
为什么被折叠?



