본문 바로가기
728x90
반응형

Study/NLP (Natural language processing)9

[NLP] Pytorch 영어 뉴스 텍스트 데이터 분류 (AG news dataset) (1) - 전처리 Pytorch로 영어 뉴스 텍스트 데이터 분류 문제를 풀어보겠다. 이번 포스팅에서는 텍스트 전처리 코드만 다루고 다음 포스팅에서 pretrained model glove와 gru로 학습을 진행하려한다. 참고 link : https://jdjin3000.tistory.com/15 전체 코드 (colab) : https://colab.research.google.com/drive/1EGW7J1Goey86D5UdUT-aKCBzi7R_Nrsj?usp=sharing 전체 코드 (github) : https://github.com/SeohuiPark/MLDLstudy/blob/main/NLP/AGnews_preprocessing.ipynb 0. 데이터와 Task 데이터 : AGnews https://www.kagg.. 2022. 4. 12.
[NLP] 자연어처리 임베딩 모델 총정리 (word2vec부터 BERT까지) 자연어처리 임베딩 모델들의 전체 컨셉 개념을 복습해보겠다. 이전 모델에 비해서 뭐가 다른지 간단하게만 정리해 둔거니 보다 자세한 자료는 참고링크에서 공부하시길 [ 임베딩 ] 인코딩은 어떤 단어 혹은 대상을 [0,1,0,0,0,0 ... ] 등 0과 1 둘 중 하나의 숫자로 표현하는 개념 임베딩은 이러한 [0,1,0,0,0,0 ... ] 벡터를 --> [0.1,0.2,0.5 ] 등 dense 한 벡터로 만들어줌 그럼 저 벡터를 어떻게 만드냐? 그거에 따라 임베딩 모델들 이름이 달라지게됨 0. Neural Probabilistic Language Model : 이전 단어들을 통해 다음 등장 단어 확률을 계산 ! word2vec의 시초같은 느낌 다음 등장할 단어의 확률을 계산하고, 이를 최대화 하는 방식으로 .. 2020. 11. 1.
한국어 텍스트 말뭉치 (도메인별 나눠져있음) corpus.korean.go.kr/#none 2020. 10. 24.
[NLP] Attention과 Transformer Q. Attention 과 Transformer에 대해 설명해주세요. Q. Query Key Value 가 뭔지 설명해주세요 Q. Attention, Transformer 학습 방식을 응용한 모델에는 무엇이 있는지. Q. Attention 과 Transformer에 대해 설명해주세요. 간단한 A. (자세한 설명은 뒤에) seq2seq의 dot product attention 이라면, 어텐션은 기존 seq2seq 모델 구조에서 현재 시점 디코더 토큰 입력해서 다음 디코더 토큰을 예측할 때 현재 시점 디코더 토큰과 인코더 토큰들간의 유사도를 내적을 통해 구한 뒤 해당 계산값을 반영하여 다음 디코더 토큰을 예측의 성능을 높이는 것 즉 "I am hungry" 를 "나는 배가 고프다" 로 번역할 때, 내적을 통.. 2020. 10. 21.
[NLP] LSTM, GRU의 한계와 Attention 등장(201015) Q. LSTM GRU 의 한계는 뭔가요 ? Q. Attention 은 무엇인가요 ? 1. LSTM GRU 의 특징과 한계 seq2seq 모델은 인코더에서 입력 시퀀스를 컨텍스트 벡터라는 하나의 고정된 크기의 벡터 표현으로 압축 디코더는 이 컨텍스트 벡터를 통해서 출력 시퀀스를 만들어냄 RNN에 기반한 seq2seq 모델에는 크게 두 가지 문제가 있다. 첫째, 하나의 고정된 크기의 벡터(context vector) 에 모든 정보를 압축하려고 하니까 정보 손실이 발생 둘째, RNN의 고질적인 문제인 기울기 소실(Vanishing Gradient) 문제가 존재 이를 극복하기 위해 LSTM, GRU는 Ct를 추가했지만 그럼에도 불구하고.... 따라서 디코더에서 output 을 뽑아낼때, 인코더의 최종 결과물인 .. 2020. 10. 15.
GPT- 한국어 적용 https://blog.pingpong.us/generation-model/ 2020. 8. 13.
Fastbert 논문리뷰자료 https://github.com/modulabs/beyondBERT/issues/20 FastBERT: a Self-distilling BERT with Adaptive Inference Time · Issue #20 · modulabs/beyondBERT 어떤 내용의 논문인가요? 👋 간략하게 어떤 내용의 논문인지 작성해 주세요! (짧게 1-2줄 이어도 좋아요!) Distillation 방법과 Adaptive Inference 기술을 사용하여, 적은 accuracy loss로도 추론의 속도를 컨 github.com 2020. 8. 8.
코드 해석하는 AI http://www.aitimes.kr/news/articleView.html?idxno=17276 페이스북 AI, 딥러닝으로 하나의 컴퓨터 언어를 다른 언어로 번역하는 '트랜스코더' 오픈 소스로 페이스북이 구식 코드베이스를 현대 언어로 번역하기 위한 '트랜스코더(TransCoder)'라고 하는 오픈 소스 도구를 개발하고 최근 공개했다. 이 플랫폼은 코드 마이그레이션을 보다 쉽고 효율적으... www.aitimes.kr 2020. 8. 7.
GPT3 https://www.youtube.com/watch?v=vLCQGkT2nFc&feature=emb_title 2020. 8. 7.
728x90
반응형