4/16 NLP 이론
sigomid보다 ReLU를 많이 쓰는 이유
sigomid보다 ReLU를 많이 쓰는 이유
AI hub에서 다운로드 받은 한국어-영어 번역 말뭉치를 기반으로 한국어를 영어로 번역하는 task를 수행하도록 파인튜닝하는 도중에 허깅페이스의 autotrain의 파라미터들이 많아서 정리하려고 한다. 허깅페이스에서 제공하는 설명은 깃허브에 올라와있다. .
LSTM Seq2Seq 모델을 이용해 영어를 한국어로 번역하는 모델을 만들어 보려고 한다. 가장 먼저 데이터를 구해야 하지만 한국어-영어 병렬 말뭉치를 구하는 것이 매우 힘들었다. 구글링 하면서 어떻게 구하긴 했는데 데이터 수가 5892개로 생각보다 적었지만 일단 해보기로 했다..
Pipeline 내부 실행과정
카카오톡 오픈채팅으로 들어간 NLP 스터디에서 HuggingFace NLP Course(NLP Course 번역ver.)로 스터디를 진행하기로 했다. 중요한 이론적 내용을 포스팅하고 코드 부분은 깃허브로 따로 첨부하려고 한다. .