Study29 [핸즈온머신러닝] Chapter 4. 모델 훈련 4.1 선형 회귀일반적으로 선형 모델은 아래 식처럼 입력 특성의 가중치 합과 편향이라는 상수를 더해 예측을 만듦해당 식을 아래 식처럼 벡터 형태로 더 간단하게 작성 가능회귀에 가장 널리 사용되는 성능 측정 지표는 RMSE(평균 제곱근 오차)RMSE를 최소화하는 θ를 찾아야 함실제로 RMSE보다 MSE(평군 제곱 오차)를 최소화하는 것이 같은 결과를 내면서 더 간단 4.1.1 정규방정식비용 함수를 최소화하는 θ값을 찾기 위한 해석적인 방법사이킷런에서 선형 회귀를 수행하는 것은 간단 4.2 경사하강법Gradient Descent(GD)는 여러 종류의 문제에서 최적의 해법을 찾을 수 있는 일반적인 최적화 알고리즘기본 아이디어는 비용 함수를 최소화하기 위해 반복해서 파라미터를 조정해가는 것파라미터 벡터.. 2024. 7. 23. [Stanford cs231n] Lecture 11(Detection&Segmentation) 강의 주제Object DetectionSemantic SegmentationInstance SegmentationR-CNNFast R-CNNFaster R-CNNMask R-CNN강의 영상https://www.youtube.com/watch?v=nDPWywWRIRo&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=11강의 자료https://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture11.pdf 2024. 6. 16. [Stanford cs231n] Lecture 10(Recurrent Neural Networks) 강의 주제RNN, LSTM강의 영상https://www.youtube.com/watch?v=6niqTuYFZLQ&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=10강의 자료https://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture10.pdf 2024. 6. 16. [밑시딥2] Chapter 8. 어텐션 seq2seq 문제점Encoder는 아무리 긴 문장이라도 고정 길이의 벡터로 변환 Encoder 개선각 시간의 은닉 상태 벡터를 모두 이용하면 입력된 단어와 같은 수의 벡터를 얻을 수 있음'하나의 고정 길이 벡터'라는 제약으로부터 해방 (입력 문장의 길이에 비례한 정보를 인코딩할 수 O)시각별 LSTM 계층의 은닉 상태 백터는 직전에 입력된 단어의 '성분'이 많이 들어간 벡터이렇게 생각하면, Encoder가 출력하는 hs행렬은 각 단어에 해당하는 벡터들의 집합 Decoder 개선 ①목표: '도착어 단어'와 대응 관계에 있는 '출발어 단어'의 정보를 골라내고 그 정보를 이용하여 번역 수행 => 다시 말해, 필요한 정보에만 주목하여 그 정보로부터 시계열 변환을 수행하는 것 => 이 구조를 'Attention.. 2024. 2. 3. [밑시딥2] Chapter 7. RNN을 사용한 문장 생성 RNN을 사용한 문장 생성언어 모델은 지금까지 주어진 단어들에서 다음에 출현하는 단어의 확률 분포 출력해당 분포를 기초로 2가지 방법을 통해 다음 단어 생성 1) 결정적 알고리즘확률이 가장 높은 단어 선택2) 확률적 알고리즘각 후보 단어의 확률에 맞게 선택따라서 선택되는 단어는 실행할 때마다 달라짐 seq2seq시계열 데이터를 다른 시계열 데이터로 변환하는 모델Encoder-Decoder 모델Encoder는 RNN을 이용해 시계열 데이터를 h라는 은닉 상태 벡터로 변환LSTM 뿐만 아니라 '단순한 RNN'이나 GRU 등도 물론 이용 가능마지막 은닉 상태 h에 입력 문장(출발어)을 번역하는 데 필요한 정보가 인코딩중요한 점은 LSTM의 은닉 상태 h는 고정 길이 벡터라는 사실 Decoder에서는 LSTM .. 2024. 2. 2. [밑시딥2] Chapter 5~6. 순환신경망(RNN)& 게이트가 추가된 RNN 언어 모델단어 나열에 확률 부여특정한 단어의 시퀀스에 대해서, 그 시퀀스가 일어날 가능성이 어느 정도인지를 확률로 평가기계 번역과 음성 인식에 언어 모델 응용음성 인식 시스템의 경우, 사람의 음성으로부터 몇 개의 문장 후보 생성그런 다음 언어 모델을 사용하여 후보 문장이 '문장으로써 자연스러운지'를 기준으로 순서를 매김또한 언어 모델은 새로운 문장을 생성하는 용도로도 이용단어 순서의 자연스러움을 확률적으로 평가하여 그 확률분포에 따라 다음으로 적합한 단어를 '자아낼' 수 있음P(w1,...,wm): w1,...,wm이라는 순서로 출현할 확률(동시확률)동시 확률은 사후 확률의 총곱으로 나타낼 수 있음주목할 점은 이 사후 확률은 타킷 단어보다 왼쪽에 있는 모든 단어를 맥락으로 했을 때의 확률위 결과는 확률의.. 2024. 1. 25. 이전 1 2 3 4 5 다음