Skip to content

Commit

Permalink
edit typo
Browse files Browse the repository at this point in the history
  • Loading branch information
metamath1 committed Jul 21, 2017
1 parent f5a0252 commit 559fc08
Showing 1 changed file with 3 additions and 3 deletions.
6 changes: 3 additions & 3 deletions simplenet/simplenet.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -32,7 +32,7 @@
"$$\\frac{\\partial C}{\\partial w^{l}_{jk}} = a^{l-1}_{k} \\delta^{l}_{j}$$\n",
"<br/>\n",
"<li> 완전 연결층만 구현</li>\n",
"<li> 코스트 함수 : Mean Square Error, Binary Cross Entropy, Categorical Cross Engropy</li>\n",
"<li> 코스트 함수 : Mean Square Error, Binary Cross Entropy, Categorical Cross Entropy</li>\n",
"<li> 활성 함수 : Sigmoid, Relu, Softmax</li>\n",
"<li> 기타 구현 : Regularization, Dropout, Batch Normalization\\*</li>\n",
"<li> 테스트데이터 : MNIST</li>\n",
Expand Down Expand Up @@ -422,8 +422,8 @@
"source": [
"#### 2.1.4 더 그냥 쉽게....\n",
"<div style=\"line-height:30px;font-size:15px;\">\n",
"2.1.2절 마지막 식의 곱이나 2.1.3절의 곱을 실제로 해보면 $\\boldsymbol{\\delta^{L}} = \\mathbf{a}^{L}_{x_{1}} - \\mathbf{y}_{x_{1}}$ \n",
"라는 사실을 알 수 있다. 그래서 복잡하게 하지말고 softmax는 cross entropy하고 쓰니까 그냥 출력층 $\\boldsymbol{\\delta}$는 $ \\mathbf{a} - \\mathbf{y} $하면 된다. 그냥 공부하려고 복잡하게 한 것임;;; 소스에는 그렇게 구현하지는 않았다. Nielsen문서에는 그렇게 구현되어 있다.\n",
"2.1.2절 마지막 식의 곱이나 2.1.3절의 곱을 실제로 해보면 $\\boldsymbol{\\delta^{L}} = \\mathbf{a}^{L}_{\\mathbf{x}_{1}} - \\mathbf{y}_{\\mathbf{x}_{1}}$ \n",
"라는 사실을 알 수 있다. 그래서 복잡하게 하지말고 softmax는 cross entropy하고 쓰니까 그냥 출력층 $\\boldsymbol{\\delta}$는 $ \\mathbf{a} - \\mathbf{y} $하면 된다. 그래서 이 둘을 묶어서 Softmax classifier라 하기도 한다. 그냥 공부하려고 복잡하게 한 것임;;; 소스에는 그렇게 구현하지는 않았다. Nielsen문서에는 그렇게 구현되어 있다.\n",
"</div>"
]
},
Expand Down

0 comments on commit 559fc08

Please sign in to comment.