본문 바로가기

DeepLearning3

<혼자 또는 같이하는 머신러닝 스터디 잼> Intro to Deep Learning 코스 요약 (2) 4. Overfitting and Underfitting Interpreting the Learning Curves 학습 데이터가 주는 정보는 signal과 noise 두 가지 유형으로 생각할 수 있다. signal은 일반화할 수 있는 부분이며, 모델 새로운 데이터로 예측을 하는 데 도움을 주게한다. Noise는 학습 데이터에만 해당되는 부분이다. Noise는 데이터에서 발생하는 모든 임의의 변동이거나 모델이 실제로 예측하는 데 도움이되지 않는 모든 부수적이고 정보가 없는 패턴이다. 유용해 보일 수 있지만 실제로는 그렇지 않은 것이다. Signal, Noise에 대한 설명은 여기를 참고하세요. 각 epoch(에폭)마다 learning curve를 그리면 어떻게 학습되었는지 알 수 있다. 이 그래프를 분석.. 2021. 4. 16.
케라스에서 fit(), fit_generator(), train_on_batch()의 차이점 이 글은 아래 링크를 번역한 및 추가한 글입니다. https://stackoverflow.com/questions/49100556/what-is-the-use-of-train-on-batch-in-keras Q : train_on_batch()와 fit()은 다른점이 무엇일까? A : 이 질문에 대한 응답은, primary author(숄레 형아)가 대답한 간단한 답을 보면됩니다. fit_generator로 당신은 validation data를 위한 generator를 만들 수 있다. 보통은, fit_generator를 사용하는 것을 추천하지만, train_on_batch도 잘 동작한다. 이 두개의 메소드는 서로 다른 케이스에 따라 사용되는 것 뿐, 더 "올바른" 메소드는 없다. train_on_batc.. 2020. 6. 12.
NLP에서 Downstream task 란 무엇일까? Downstream task는 pretrained model 혹은 feature를 supervised-learning task에 적용시키는 것이라고 한다. 어디서 많이 본 learning 방법이 생각나지 않나? 바로 Transfer learning 이다. 그래서 Transfer learning의 정의를 찾아보았다. Transfer learning은 대규모 데이터 셋에서 모델을 학습한 후, pretrained 모델을 사용하여 downstream task에 대한 학습을 하는 프로세스이다. 참조 https://stackoverflow.com/questions/53248838/definition-of-downstream-tasks-in-nlp https://medium.com/dair-ai/a-light-int.. 2020. 2. 3.