Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- anaconda오류
- conda
- 머신러닝
- pyTorch
- ML
- Machine Learning
- 리눅스 오류
- pytorch tensor
- conda: command not found
- Tensor
- 일귀
- 텐서
- conda오류
- essential deep learning paper reading
- 리눅스
- Ai
- 공부
- torch
Archives
- Today
- Total
Learning by Doing
Cross Entropy Loss with Softmax 미분에 대한 이해 본문
Gradient descent on a Softmax cross-entropy cost function
In this blog post, you will learn how to implement gradient descent on a linear classifier with a Softmax cross-entropy loss function. I recently had to implement this from scratch, during the CS231 course offered by Stanford on visual recognition. Andrej
madalinabuzau.github.io
위 블로그에 정리된 증명을 통해 과정을 납득할 수 있었다.
아직 벡터(텐서)나 매트릭스의 미분에 익숙하지 않은 것 같아 관련 예제들을 집중하며 봐야겠다.
'AI > cs231n' 카테고리의 다른 글
Stanford CS224N - NLP w/ DL | Winter 2021 | Lecture 4 - Syntactic Structure and Dependency Parsing (0) | 2022.09.16 |
---|