아래 내용은 인프런 [처음하는 딥러닝과 파이토치(Pytorch) 부트캠프] 강의를 듣고 공부한 내용입니다. RNN Recurrent Neural Network, 순환 신경망 이라고함 입력과 출력을 시퀀스 단위로 처리하는 시퀀스(Sequence) 모델 시퀀스(Sequence)란 연관된 연속 데이터를 의미하며, 시계열 데이터 등 순서를 가지는 데이터(그 전의 데이터를 가지고 예측해야하니까 시간축이 중요함) 에 적합한 신경망 모델 ( CNN과 마찬가지로 DNN으로도 시계열 데이터 분석 가능하지만 더 성능이 좋음) 번역기의 입력은 단어가 순서를 띄고 나열된 문장 시퀀스이며, 출력도 번역된 단어가 순서를 띄고 나열된 번역 문장 시퀀스임 가장 기본적인 시퀀스 모델이며, 최근에는 RNN을 기반으로 개선된 LSTM과 ..
정규화란? - 데이터 처리에 있어 입력, 수정, 삭제의 이상 현상을 제거하여 안정적 처리(Consistency)를 보장하기 위한 방법 - 기본 원칙은 테이블에 중복된 데이터가 없도록 하는 것 - 다양한 유형의 검사를 통해 데이터 모델을 더욱 구조화하고 개선시켜 나가는 절차에 관련된 이론 함수 종속성 결정자(Determinant, X, Primary Key) → 종속자(Dependent, Y, 나머지 속성들) 종속자는 근본적으로 결정자에 함수적으로 종속관게를 가지고 있음 ex) 주민등록번호 -> (이름, 출생지, 주소) —> 이름, 출생지, 주소는 주민등록번호에 함수 종속성을 가지고 있음 정규화 단계 제 1 정규화 한 칼럼엔 한 개의 데이터만 (함수의 속성값을 갖는 속성을 분리) PK(Primary Key..
아래 내용은 인프런 [처음하는 딥러닝과 파이토치(Pytorch) 부트캠프] 강의를 듣고 공부한 내용입니다. Classification (분류) 분류 문제는 출력 결과가 다르므로, 분류 타입에 따라 다른 activation function을 사용하는 것이 일반적임 예측 문제 Regression (숫자 예측, 예 : 키) Binary Classification (이진 분류) Multi-Class(Multi-Label) Classification (다중 분류) Final Action None Sigmoid Softmax (또는 Log-Softmax) Loss Function MSE Loss BCE Loss Cross Entropy Loss (또는Negative Log Likelihood Loss) Softma..
아래 내용은 인프런 [처음하는 딥러닝과 파이토치(Pytorch) 부트캠프] 강의를 듣고 공부한 내용입니다. Adam(Adaptive Moment Estimation) Optimizer 가장 많이 사용하는 optimizer, 결국 Adam optimizer를 이해하기 위해 기존의 optimizer를 설명하는 것. ** Optimizer = 확률적 경사하강법의 파라미터 변경 폭이 불안정한 문제를 해결하기 위해 학습 속도와 운동량을 조정하는 옵티마이저 적용 Adam : Momentum과 RMSProp의 장점을 결합한 경사하강법으로, RMSProp의 특징인 기울기의 제곱을 지수평균한 값과 모멘텀 특징인 v(i)를 수식에 활용함. 즉, 알엠에스프롭의 G함수와 모멘텀의 v(i)를 사용하여 가중치를 업뎃함. opti..