Study25 [ML] AutoML (Pycaret, AutoGluon) 데이콘많은 대회에서 AutoML을 빈번히 사용 대구 교통사고 피해 예측 AI 경진대회 HD현대 AI challenge 제주 특산물 가격 예측 AI 경진대회 AutoML이란?말 그대로 자동화된 Machine Learning시간 소모적이고 반복적인 기계 학습 모델 개발 작업 (데이터 전처리, 모델링, 하이퍼파라미터 튜닝 등)을 자동화하는 프로세스머신러닝을 위한 고급 모델 구축을 자동화하여, 데이터 과학 전문 지식과 프로그래밍 스킬이 없어도 누구나 쉽게 머신러닝을 활용할 수 있도록 도와줌 PyCaretpython에서 제공하는 open-source 라이브러리PyCaret은 scikit-learn, XGBoost, LightGBM, CatBoost, Optuna 등 다양한 머신러닝 라이브러리와 .. 2024. 8. 12. [핸즈온머신러닝] chapter 7. 앙상블 학습과 랜덤 포레스트 Ensemble Method일련의 예측기 (즉, 분류나 회귀 모델)로부터 예측을 수집하면 가장 좋은 모델 하나보다 더 좋은 예측을 얻을 수 있음 7.1 투표 기반 분류기더 좋은 분류기를 만드는 매우 간단한 방법은 각 분류기의 예측을 모아서 가장 많이 선택된 클래스를 예측하는 것이렇게 다수결 투표로 정해지는 분류기를 'hard voting(직접 투표) 분류기'라고 함 TIP앙상블 방법은 예측기가 가능한 한 서로 독립적일 때 최고의 성능을 발휘즉, 각기 다른 알고리즘으로 학습이렇게 하면 매우 다른 종류의 오차를 만들 가능성이 높기 때문에 앙상블 모델의 정확도를 향상시킴투표 기반 분류기가 다른 개별 분류기보다 성능이 조금 더 높음을 확인 모든 분류기가 클래스의 확률을 예측할 수 있으면(즉, predict.. 2024. 8. 9. [핸즈온머신러닝] Chapter 4. 모델 훈련 4.1 선형 회귀일반적으로 선형 모델은 아래 식처럼 입력 특성의 가중치 합과 편향이라는 상수를 더해 예측을 만듦해당 식을 아래 식처럼 벡터 형태로 더 간단하게 작성 가능회귀에 가장 널리 사용되는 성능 측정 지표는 RMSE(평균 제곱근 오차)RMSE를 최소화하는 θ를 찾아야 함실제로 RMSE보다 MSE(평군 제곱 오차)를 최소화하는 것이 같은 결과를 내면서 더 간단 4.1.1 정규방정식비용 함수를 최소화하는 θ값을 찾기 위한 해석적인 방법사이킷런에서 선형 회귀를 수행하는 것은 간단 4.2 경사하강법Gradient Descent(GD)는 여러 종류의 문제에서 최적의 해법을 찾을 수 있는 일반적인 최적화 알고리즘기본 아이디어는 비용 함수를 최소화하기 위해 반복해서 파라미터를 조정해가는 것파라미터 벡터.. 2024. 7. 23. [Stanford cs231n] Lecture 11(Detection&Segmentation) 강의 주제Object DetectionSemantic SegmentationInstance SegmentationR-CNNFast R-CNNFaster R-CNNMask R-CNN강의 영상https://www.youtube.com/watch?v=nDPWywWRIRo&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=11강의 자료https://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture11.pdf 2024. 6. 16. [Stanford cs231n] Lecture 10(Recurrent Neural Networks) 강의 주제RNN, LSTM강의 영상https://www.youtube.com/watch?v=6niqTuYFZLQ&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=10강의 자료https://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture10.pdf 2024. 6. 16. [밑시딥2] Chapter 8. 어텐션 seq2seq 문제점Encoder는 아무리 긴 문장이라도 고정 길이의 벡터로 변환 Encoder 개선각 시간의 은닉 상태 벡터를 모두 이용하면 입력된 단어와 같은 수의 벡터를 얻을 수 있음'하나의 고정 길이 벡터'라는 제약으로부터 해방 (입력 문장의 길이에 비례한 정보를 인코딩할 수 O)시각별 LSTM 계층의 은닉 상태 백터는 직전에 입력된 단어의 '성분'이 많이 들어간 벡터이렇게 생각하면, Encoder가 출력하는 hs행렬은 각 단어에 해당하는 벡터들의 집합 Decoder 개선 ①목표: '도착어 단어'와 대응 관계에 있는 '출발어 단어'의 정보를 골라내고 그 정보를 이용하여 번역 수행 => 다시 말해, 필요한 정보에만 주목하여 그 정보로부터 시계열 변환을 수행하는 것 => 이 구조를 'Attention.. 2024. 2. 3. 이전 1 2 3 4 5 다음