전체 글
-
[자연어처리/NLP] 토픽모델링머신러닝 || 딥러닝 2022. 9. 8. 08:23
토픽 모델링 -문서를 대표하는 토픽을 발견하고, 많은 양의 비정형 데이터를 정리하는데 사용한다 -토픽 모델링은 스스로 패턴을 인식하는 비지도 학습방식이므로 레이블이 된 데이터가 필요없다 -파이썬의 gensim을 사용해 쉽게 구현할수있다 토픽모델링의 사례 -문서토픽요약: 토픽을 요약하여 신속하게 분류한다 -검색엔진 최적화: 문서의 키워드를 식별하여 쉽게 태그할수있다 -고객 지원 개선: 제품 및 서비스 사양, 고객 불만 및 피드백에 관한 토픽과 키워드를 분류한다 (FAQ, 챗봇등에 활용가능) 토픽모델링 알고리즘 -잠재 디리클레 할당 (LDA, Latent Dirichlet Allocation) : 문서의 토픽은 단 하나로 정해지는 것이 아니라 여러 토픽의 비율로 표현할수있다고 가정하는 확률 모델 (e.g. ..
-
[객체추출] Object detection with 텐서플로머신러닝 || 딥러닝 2022. 9. 8. 02:34
Object detection using Tensor flow API Setup (MAC) Install Python library $ pip install pillow $ pip install lxml $ pip install jupyter $ pip install matplotlib Install protocol buffer 1. download protobuf-all-21.5.tar.gz from https://github.com/protocolbuffers/protobuf/releases 2. Extract the tar.gz file. 3. $cd ~/Downloads/protobuf-2.4.1 4. $./configure 5. $make 6. $make check 7. $sudo make in..
-
[recursive] 연습하기 좋은 간단한 재귀함수 문제들🐍 파이썬/파이썬 연습문제 2022. 8. 16. 08:02
1. print 0 to 10 2. compute factorial/ power 3. reverse the string 4. find max / min value in the list def find_max(l): if len(l) == 0: return None if len(l) == 1: return l[0] max = find_max(l[1:]) if l[0] > max : return l[0] else: return max 5. print all values in nested list
-
[DL] deep neural net의 문제점 : over fitting & gradient vanishing머신러닝 || 딥러닝 2022. 8. 13. 12:24
복잡한 모델을 예측하기위해서는 parameter의 수를 증가 시켜야한다. => getting deeper parameter가 많아질수록 training dataset에서만 잘 작동하는 overfitting문제가 생긴다. => 이에 대한 solution으로는 regulararization (L1, L2)와 Drop out 이 있다 네트워크의 레이어의 개수가 증가할수록 backpropagation과정에서 gradient가 점점 0에 가까워지는 경우가 생긴다. => activation function으로 시그모이드 대신 ReLU, leaky ReLU, ELU를 사용한다 모델성능을 향상 시킬수있는 다른 테크닉들 : Weight initialization : Xavier initialization Batch no..
-
[DL개념] MLP (multi layer perceptron)머신러닝 || 딥러닝 2022. 8. 11. 11:13
=>입력받은 신호를 처리하고(weighted sum) activation function을 통과시켜 다음 뉴런으로 전달되는 모델 solving XOR with MLP => let's assign W and b randomly and see if it works How can we train weight and bias? => Backpropagation with computation graph => we can easily compute any partial derivaitives by chain rule :)) 추천영상 : https://www.youtube.com/watch?v=oOQCrm4Vemo&list=PLSAJwo7mw8jn8iaXwT4MqLbZnS-LJwnBd&index=7
-
-