- 인공지능을 활용하여 텍스트로 구성된 서술형 수학문제의 풀이과정과 해답을 제시하라
- Algebraic 모델과 Question Answering 모델로 구성
- Binary classification을 통해 문제를 구분하여 각 모델(Algebraic, QA)로 전달
- 중국어 수학 문제 데이터셋 Math23k, Ape210k 를 기계번역을 통하여 데이터셋 구축
- 2가지 모델을 비교
- A Goal-Driven Tree-Structured Neural Model for Math Word Problems (gts)에 kykim electra-kor-base 를 임베딩으로 사용한 모델
- Solving Math Word Problems with Multi-Encoders and Multi-Decoders (multi)에 KLUE roberta-large 를 임베딩으로 사용한 모델.
- MLM은 같은 데이터셋에 masked language modeling을 통해 pretraining한 모델을 의미
- 추가적인 실험으로 Bert에서 사용한 NSP(Next Sentence Prediction)을 적용한 roberta model 비교 예정
exact match | f1 score | |
---|---|---|
epoch 1 | 60.424 | 63.578 |
epoch 2 | 78.092 | 80.300 |
epoch 3 | 84.100 | 86.249 |
- main.py : 인공지능 그랜드 챌린지 제출 형식의 파일
- mwp_train.py : Algebraic 모델 학습 파일
- qa_train.py : Question Answering 모델 학습 파일
- pretraining : mathmatical pretrain 학습 디렉토리
- docker : 추론시 활용할 도커파일