본문 바로가기

DL|ML49

<혼자 또는 같이하는 머신러닝 스터디 잼> 티셔츠 대장정의 끝 을 하면서 이미지 처리에서는 잘 쓸이 없었던 몇 가지(결측치 처리 같은)들을 배우게 되었습니다. 비록 영어지만ㅋㅋㅋ 자세한 설명들과 코드로 이해하기에 좋은 스터디였던 것 같아요. 공부하면서 정리할만한 것들이나 제가 조금 더 자세하게 쓸 수 있는 것들을 이 블로그에 정리하고 같이 스터디 하는 분들에게 공유하였는데 감사하게도 칭찬의 의미이신지 책을 선물해주셨습니다 그것도 내가 고민했던책! 요즘 책값이 참 비싸다.. 받은 후에 침대에서 뒹굴면서 재미있게 잘 읽었습니다. 그리고 오늘 대망의.. 내가 기다렸던 티셔츠가 왔다 오예오예 여러 디자인 시안이 있었는데 제가 선택했던 것이 된 것 같네요. 아 선택한걸로 오는건가? 아주 예쁜 검정색 티셔츠가 왔습니다. 가슴팍에 Google Developers라고 쓰여있네요... 2021. 5. 20.
정확히 CNN에서 shared weights란 무엇을 의미하나요? 이 글은 이곳을 번역한 글입니다. 제 의견도 내포되어 있으니, 틀린 부분은 댓글로 이야기해주세요! 🧑‍🎓 Q : What exactly is meant by shared weights in convolutional neural network? 정확히 CNN에서 가중치 공유(shared weights)란 무엇을 의미하나요? 🧑‍🏫 A : 가중치가 공유(weight sharing)된다는 것은 하나의 커널이 뉴런의 볼륨을 stride하며 모든 커널이 동일한 가중치를 갖는다는 것을 의미합니다. 이는 또한 이러한 가중치(weight), 즉 볼륨을 지나며 모든 커널이 학습하는(training) 동안에도 동일하게 유지된다는 것을 의미합니다. 🍕이든 : 전통적인 뉴럴넷에서는 가중치 매트릭스(weight matrix)가.. 2021. 5. 12.
[논문리뷰] 모델을 가볍게 MobileNetV1, Depthwise Separable Convolution 설명 MobileNetV1에 대한 간단한 논문 리뷰입니다. 논문링크 : https://arxiv.org/abs/1704.04861 Abstract 해당 논문에서는 Mobile 기기와 임베디드 비전 어플리케이션을 위한 효율적인(efficient) 모델인 MobileNets를 소개합니다. MobileNet은 depth-wise convolutions를 이용하여 모델의 아키텍쳐를 구성하였으며 간단한 2개의 하이퍼파라미터를 이용하여 지연시간(latency)과 정확도(accuracy)를 절충합니다. 1. Introduction 더 높은 accuracy를 달성하기 위해 Convolutional neural networks는 더 깊고, 복잡해지는게 트렌드였습니다. 하지만 로보틱스, 자율주행 자동차, AR, 사물인식과도 같.. 2021. 4. 26.
<혼자 또는 같이하는 머신러닝 스터디 잼> Intro to Deep Learning 코스 요약 (2) 4. Overfitting and Underfitting Interpreting the Learning Curves 학습 데이터가 주는 정보는 signal과 noise 두 가지 유형으로 생각할 수 있다. signal은 일반화할 수 있는 부분이며, 모델 새로운 데이터로 예측을 하는 데 도움을 주게한다. Noise는 학습 데이터에만 해당되는 부분이다. Noise는 데이터에서 발생하는 모든 임의의 변동이거나 모델이 실제로 예측하는 데 도움이되지 않는 모든 부수적이고 정보가 없는 패턴이다. 유용해 보일 수 있지만 실제로는 그렇지 않은 것이다. Signal, Noise에 대한 설명은 여기를 참고하세요. 각 epoch(에폭)마다 learning curve를 그리면 어떻게 학습되었는지 알 수 있다. 이 그래프를 분석.. 2021. 4. 16.
<혼자 또는 같이하는 머신러닝 스터디 잼> Intro to Deep Learning 코스 요약 (1) 하 내용 많다 많아 (1), (2)로 나눠야겠다. 1. A single Neuron 딥러닝이란 무엇? 딥러닝은 심층 계산 스택으로 특징지어지는 머신러닝에 대한 접근법이다. 이러한 계산 깊이는 딥러닝 모델이 가장 까다로운 실제 데이터 세트에서 발견되는 복잡하고 계층적인 패턴의 종류를 분리하도록 가능하게 한 것이다. 신경망은 뉴런으로 구성되며, 각 뉴런은 개별적으로 간단한 계산만 수행한다. 신경망의 힘은 대신 이 뉴런들이 형성할 수 있는 연결의 복잡성에서 옵니다. The Linear Unit W : weight, 이 알맞은 w를 찾아내는 것을 뉴럴넷이 학습한다고 한다 b : bias, input x의 값과 별개로 뉴런의 출력값을 조절할 수 있다 Linear Units in Keras 케라스의 kears.Se.. 2021. 4. 16.
<혼자 또는 같이하는 머신러닝 스터디 잼> Intermediate Machine Learning 코스 요약 아 슬슬 정리가 빡세진다ㅋㅋㅋㅋㅋㅋ 그래도 끝냈다. 두 번째 코스 Intermediate Machine Learning 코스 요약이다. Lesson 2. Missing values 데이터가 비어있을 때 처리하는 방법을 알아본다. 세 가지 방법을 이야기 해볼 것이다. 1. 간단한 방법 : 값이 비어있는 컬럼을 버린다. 쿨하다. Bed 부분에 NaN값으로 값이 없으니 그냥 Bed 컬럼을 버리자! 2. 조금 더 나은 방법 : Imputation Imputation은 어떤 숫자로 비어있는 cell을 채운다. 예를 들어 해당 컬럼의 평균값으로 채운다. (1.0 + 2.0 + 3.0)/3 = 2.0 3. 확장된 Imputation 방법 Imputation은 스탠다드한 방법이고 보통은 잘 작동한다. 그러나 cell에.. 2021. 4. 7.