-
一次函数
-
二次函数
-
单位阶跃函数
-
指数函数与Sigmoid函数
-
正态分布的概率密度函数
-
数列的通项式
-
将多个数列的递推关系式联合起来组成一组,称为联立递推关系式。
-
在神经网络的世界中,所有神经单元的输入和输出在数学上都可以认为是用联立递推式联系起来的。
-
-
向量是具有方向与大小的量,用箭头表示。
- 向量的坐标表示
- 向量a的大小用|a|表示。
- 向量的内积
- 柯西-施瓦茨不等式
- 当两个向量方向相反时,内积取得最小值。 - 当两个向量不平行时,内积去平行时的中间值。 - 当两个向量方向相同时,内积取得最大值。
- 内积的坐标表示
- 张量(tensor)是向量概念的推广。谷歌提供的人工智能学习系统TensorFlow的命名中就是用到了这个数学术语。
-
矩阵(matrix)
-
- 行数与列数相同的矩阵称为方阵
- 单位矩阵,他说对角线上的元素aii为1、其他元素值为0的方阵,通常用E表示。
- 矩阵相等,两个矩阵A、B相等的含义是它们对应的元素相等,记为A = B
- 矩阵的和、差、常数倍
当
时:
- 矩阵的乘积,对于两个矩阵A、B,将Ade第i行看做行向量,B的第j列看做列向量,将它们的内积作为第行第j列元素,由此而产生的矩阵就是矩阵A、B的乘积AB。
- Hadamard乘积,对于相同形状的矩阵A、B,将相同位置的元素相乘,由此产生的矩阵为矩阵A、B的Hadamard乘积,用
表示
- 转置矩阵(transposed matrix),将矩阵A的第行第j列的元素与第j行第i列的元素交换。用
等表示。
-
-
导数
-
偏导数基础
- 多变量函数:有两个以上自变量的函数称为多变量函数。
- 求导的方法也同样适用于多变量函数的情况。但是。由于有多个变量,所以必须指明对哪一个变量进行求导。在这个意义上,关于某个特定变量的导数就称为偏导数(partial derivative)。
- 假设两个变量x、y的函数z=f(x,y)。
- 关于x的偏导数
- 关于y的偏导数
- 多变量函数的最小值条件:函数z=f(x,y)取得最小值的必要条件是
- 拉格朗日乘数法。求函数
在满足下的条件极值,可以转化为函数
的无条件极值问题。
- 拉格朗日参考资料
- 关于x的偏导数
-
链式法则
-
回归分析
- 由多个变量组成的数据中,着眼于其中一个特定的变量,用其余的变量来解释这个特定的变量,这样的方法称为回归分析。