Skip to content

Commit

Permalink
Merge pull request #1 from fengdu78/master
Browse files Browse the repository at this point in the history
update
  • Loading branch information
neunicholaslee authored Sep 5, 2018
2 parents bdadf31 + d9ac4c1 commit ee4ad86
Show file tree
Hide file tree
Showing 6 changed files with 15 additions and 13 deletions.
10 changes: 6 additions & 4 deletions README.md
Original file line number Diff line number Diff line change
Expand Up @@ -26,15 +26,17 @@

2018-3-26 夜

微信公众号:机器学习初学者 ![gongzhong](/images/gongzhong.png)

[我的知乎](https://www.zhihu.com/people/fengdu78/activities)

参考:https://www.coursera.org/course/ml 机器学习公开课

https://mooc.guokr.com/note/12/ [小小人_V](https://mooc.guokr.com/user/2133483357/) 的个人笔记

​ 《统计学习方法》李航
https://mooc.guokr.com/note/12/ [小小人_V](https://mooc.guokr.com/user/2133483357/) 的个人笔记

​ 《机器学习课》邹博
《统计学习方法》李航

《机器学习课》邹博

## 备注:吴恩达老师的深度学习课(deepLearning.ai)的笔记地址:https://github.com/fengdu78/deeplearning_ai_books

Expand Down
Binary file not shown.
Binary file added images/gongzhong.png
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
2 changes: 1 addition & 1 deletion markdown/week8.md
Original file line number Diff line number Diff line change
Expand Up @@ -344,7 +344,7 @@ $$\dfrac {\dfrac {1}{m}\sum^{m}_{i=1}\left\| x^{\left( i\right) }-x^{\left( i\ri

![](../images/0a4edcb9c0d0a3812a50b3e95ef3912a.png)

**PCA**算法,我们可能有一个这样的样本。如图中样本$x^{(1)}$,$x^{(2)}$。我们做的是,我们把这些样本投射到图中这个一维平面。然后现在我们需要只使用一个实数,比如$z^{(1)}$,指定这些点的位置后他们被投射到这一个三维曲面。给定一个点$z^{(1)}$,我们怎么能回去这个原始的二维空间呢?$x$为2维,z为1维,$z=U^{T}_{reduce}x$,相反的方程为:$x_{appox}=U_{reduce}\cdot z$,$x_{appox}\approx x$。如图:
**PCA**算法,我们可能有一个这样的样本。如图中样本$x^{(1)}$,$x^{(2)}$。我们做的是,我们把这些样本投射到图中这个一维平面。然后现在我们需要只使用一个实数,比如$z^{(1)}$,指定这些点的位置后他们被投射到这一个三维曲面。给定一个点$z^{(1)}$,我们怎么能回去这个原始的二维空间呢?$x$为2维,$z$为1维,$z=U^{T}_{reduce}x$,相反的方程为:$x_{appox}=U_{reduce}\cdot z$,$x_{appox}\approx x$。如图:

![](../images/66544d8fa1c1639d80948006f7f4a8ff.png)

Expand Down
16 changes: 8 additions & 8 deletions markdown/week9.md
Original file line number Diff line number Diff line change
Expand Up @@ -120,7 +120,7 @@ $p(x)=\prod\limits_{j=1}^np(x_j;\mu_j,\sigma_j^2)=\prod\limits_{j=1}^1\frac{1}{\

1. 根据测试集数据,我们估计特征的平均值和方差并构建$p(x)$函数

2. 对交叉检验集,我们尝试使用不同的$\varepsilon$值作为阀值,并预测数据是否异常,根据F1值或者查准率与查全率的比例来选择 $\varepsilon$
2. 对交叉检验集,我们尝试使用不同的$\varepsilon$值作为阀值,并预测数据是否异常,根据$F1$值或者查准率与查全率的比例来选择 $\varepsilon$

3. 选出 $\varepsilon$ 后,针对测试集进行预测,计算异常检验系统的$F1$值,或者查准率与查全率之比

Expand Down Expand Up @@ -189,7 +189,7 @@ $p(x)=\frac{1}{(2\pi)^{\frac{n}{2}}|\Sigma|^{\frac{1}{2}}}exp\left(-\frac{1}{2}(

$|\Sigma|$是定矩阵,在 **Octave** 中用 `det(sigma)`计算

$\Sigma1$ 是逆矩阵,下面我们来看看协方差矩阵是如何影响模型的:
$\Sigma^{-1}$ 是逆矩阵,下面我们来看看协方差矩阵是如何影响模型的:

![](../images/29df906704d254f18e92a63173dd51e7.jpg)

Expand All @@ -211,11 +211,11 @@ $\Sigma1$ 是逆矩阵,下面我们来看看协方差矩阵是如何影响模

原高斯分布模型和多元高斯分布模型的比较:

| 原高斯分布模型 | 多元高斯分布模型 |
| ------------------------------- | ---------------------------------------- |
| 不能捕捉特征之间的相关性 但可以通过将特征进行组合的方法来解决 | 自动捕捉特征之间的相关性 |
| 计算代价低,能适应大规模的特征 | 计算代价较高 训练集较小时也同样适用 |
| | 必须要有 $m>n$,不然的话协方差矩阵 不可逆的,通常需要 $m>10n$ 另外特征冗余也会导致协方差矩阵不可逆 |
| 原高斯分布模型 | 多元高斯分布模型 |
| ------------------------------------------------------------ | ------------------------------------------------------------ |
| 不能捕捉特征之间的相关性 但可以通过将特征进行组合的方法来解决 | 自动捕捉特征之间的相关性 |
| 计算代价低,能适应大规模的特征 | 计算代价较高 训练集较小时也同样适用 |
| | 必须要有 $m>n$,不然的话协方差矩阵$\Sigma$不可逆的,通常需要 $m>10n$ 另外特征冗余也会导致协方差矩阵不可逆 |

原高斯分布模型被广泛使用着,如果特征之间在某种程度上存在相互关联的情况,我们可以通过构造新新特征的方法来捕捉这些相关性。

Expand Down Expand Up @@ -295,7 +295,7 @@ $n_m$ 代表电影的数量

$r(i, j)$ 如果用户j给电影 $i$ 评过分则 $r(i,j)=1$

$y^{(i, j)}$ 代表用户 $j$ 给电影i的评分
$y^{(i, j)}$ 代表用户 $j$ 给电影$i$的评分

$m_j$代表用户 $j$ 评过分的电影的总数

Expand Down
Binary file not shown.

0 comments on commit ee4ad86

Please sign in to comment.