반응형 d1 Back - propagation 1 현재의 구조 Input과 NN - Bias는 Hidden Layer와 Output Layer(들어가지 않는 경우도 존재)에만 들어간다. (Input Layer은 사용하지 않는다.) - Weight 값은 Input -> Hidden Layer 에서 6개, Hidden -> Output Layer에서 9개 존재하고 있다. - 활성함수는 Hidden Layer에 보통 사용한다. 따라서 Output Layer에는 음수가 출력될 수 있다. Softmax와 Cross Entropy의 적용과정 - 인풋이 1개라면 Loss는 1개, 2개라면 2개이다. - Loss는 인풋에 따라 결정된다. - Loss는 Input 부터 순차적으로 값이 결정되는데 이를 Feed-Forward라고 지칭한다. - 이 과정에서 Weight, .. 2021. 6. 18. 이전 1 다음 반응형