RNN
LSTM & GRU
QnA
ETC
필수 과제2
실습
배운 것
결국에 backward를 진행하기위해서는 bptt만큼 잘라야 하니까.. input을 할 때 그만큼 미리 잘라서 넣어주는 것 같음 input이 그러하면 output도 그러할 테니까 ?
batch는 실험적으로 넣어주는거고 원래 batch 개념이랑 비슷하기는 한 것 같음.
BERT + LSTM
https://stackoverflow.com/questions/65205582/how-can-i-add-a-bi-lstm-layer-on-top-of-bert-model?rq=1