Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
Tags
- 공부
- anaconda오류
- stm32f 시리즈를 이용한 arm cortex-m3/m4 구조와 응용
- torch
- 텐서
- 머신러닝
- Machine Learning
- Tensor
- Ai
- pytorch tensor
- 리눅스 오류
- pyTorch
- 리눅스
- 일귀
- essential deep learning paper reading
- conda오류
- ML
- conda: command not found
- conda
Archives
- Today
- Total
Embedded World
Cross Entropy Loss with Softmax 미분에 대한 이해 본문
Gradient descent on a Softmax cross-entropy cost function
In this blog post, you will learn how to implement gradient descent on a linear classifier with a Softmax cross-entropy loss function. I recently had to implement this from scratch, during the CS231 course offered by Stanford on visual recognition. Andrej
madalinabuzau.github.io
위 블로그에 정리된 증명을 통해 과정을 납득할 수 있었다.
아직 벡터(텐서)나 매트릭스의 미분에 익숙하지 않은 것 같아 관련 예제들을 집중하며 봐야겠다.
'AI > cs231n' 카테고리의 다른 글
Stanford CS224N - NLP w/ DL | Winter 2021 | Lecture 4 - Syntactic Structure and Dependency Parsing (0) | 2022.09.16 |
---|