본문 바로가기

인공지능3

(딥러닝 정리노트 #3) Softmax Regression, Learning rate ## 인프런_딥러닝 강의 해당 글은 인프런 모두를 위한 딥러닝 - 홍콩과기대 김성훈 교수님의 강의를 보며 정리한 노트입니다. @ 세션6. Softmax Regression - logistic regression 복습- H(x) = Wx의 결과가 1을 초과한 큰 값이 나오므로 이를 z로 생각하고, g(z)라는 수식이 큰 값들을 0과 1사이로 압축해줌. - x -> w -> z -> y의 햇 // z를 통해 시그모이드로 변환, y햇은 0과 1사이- 2개의 결과를 구분 짓은 리니어를 그리는 것. - multinomial classification ( 여러개의 입력을 통한 여러개의 결과 )- binary classification으로 multinomial classification 구현이 가능함.- ex) a,.. 2018. 5. 30.
(딥러닝 정리노트 #2) Binary Classification-Logistic regression ## 인프런_딥러닝 강의 해당 글은 인프런 모두를 위한 딥러닝 - 홍콩과기대 김성훈 교수님의 강의를 보며 정리한 노트입니다. @섹션5. Binary Classification - 둘 중 하나의 결과를 도출시키는 classification- 예시는 페이스북 피드 업로드, 스팸메일 처리, 신용카드 오사용 분류- 이러한 예시를 컴퓨터로 쉽게 코드를 짤 수 있도록 encoding을 함, 0과 1로 구분짓는 것임. 스팸메일(1)_정상메일(0)- 0과 1로 이루어진 결과만 도출하는 상황에서 linear regression으로 해결하는 것은 cost의 값이 매우 커지게 됨.- 이유인즉 1이상의 값, 0이하의 값을 linear regression에서 도출되기 때문임- 이 cost의 값을 낮추기 위한 그래프, 시그모이드.. 2018. 5. 30.
(딥러닝 정리노트 #1) 딥러닝개요와 Linear Regression ## 인프런_딥러닝 강의 해당 글은 인프런 모두를 위한 딥러닝 - 홍콩과기대 김성훈 교수님의 강의를 보며 정리한 노트입니다. @섹션0~3.- (hypothesis, cost function, gradient descent algo.)- hupothesis = Wx + b // W, b 두개의 값을 학습- cost(W,b) = 실제값과 예측한 값의 차이를 제곱하여 평균한 것(밥그릇 모양)- 밥그릇 모양의 그래프에서 최적의 값을 찾기 위한 알고리즘 : gradient descent algorithm @섹션4. 여러개의 입력의 Linear Regression - 이전까지는 하나의 인풋을 통해 학습했지만, 여러개의 input은 어떻게 해야할가?- 하나의 input일땐 h=Wx+b, 3개의 입력일 경우 H(x1,.. 2018. 5. 30.
반응형