혼공학습단/혼자 공부하는 머신러닝+딥러닝
[혼공학습단 10기] 6주차 미션 : Chapter 07
so0_0
2023. 8. 18. 08:00
6주차 미션은 무엇일까요?
[기본 미션]
Ch.07(07-1) 확인 문제 풀고, 풀이 과정 정리하기
[선택 미션]
Ch.07(07-2) 확인 문제 풀고, 풀이 과정 정리하기
[기본 미션]
Ch.07(07-1) 확인 문제 풀고, 풀이 과정 정리하기
확인 문제 1. 답: ③ 1,010개
- 100 * 10(weight) + 10(bias) = 1,010개
확인 문제 2. 답: ② 'sigmoid'
- 이진 분류 모델: 출력층 뉴런 1개이고, 선형 방정식의 결과를 확률로 바꾸기 위해 sigmoid 함수 사용
확인 문제 3. 답: ④ compile()
- 모델의 손실 함수(loss 매개변수), 측정 지표(metrics 매개변수) 등을 지정할 수 있는 메서드는 compile()
확인 문제 4. 답: ① 'sparse_categorical_crossentropy'
binary_crossentropy | 이진 분류에서 사용하는 손실 함수 |
mean_square_error | 회귀 분류에서 사용하는 손실함수 |
sparse_categorical_crossentropy | 타깃값이 정수인 다중 분류 |
categorical_crossentropy | 타깃값이 원-핫 인코딩된 경우 |
[선택 미션]
Ch.07(07-2) 확인 문제 풀고, 풀이 과정 정리하기
확인 문제 1. 답: ② model.add(keras.layers.Dense(10, activation='relu'))
- add(): 케라스 모델에 층을 추가하는 메서드
확인 문제 2. 답: ② Flatten
- Flatten 클래스: 배치 차원을 제외한 입력의 차원을 일렬로 펼치는 클래스
확인 문제 3. 답: ③ relu
- relu 함수: 이미지 처리 작업에서 널리 사용되는 활성화 함수
확인 문제 4. 답: ① SGD
- 옵티마이저 문제
- SGD: 기본 경사 하강법, 모멘텀, 네스테로프 모멘텀 알고리즘을 구현할 클래스로 일정한 학습률을 사용함
- 적응적 학습률 옵티마이저: Adagrad, RMSprop, Adam
출처: 한빛미디어, 혼자 공부하는 머신러닝+딥러닝