Bio GPT Fine-Tuning

2024. 6. 11. 17:33DL/Fine-Tuning

llama2로 판독문 데이터를 학습하였고, 더 좋은 모델을 찾기위해 여러가지 분석 후 Bio Gpt의 BioGPT-Large-PubMedQA를 선택하였다.
LLama2에서는 LoRA 기법을 사용할 때 target_modules를 정의하는 오류가 발생하지 않았지만, 다른 모델에서는 이를 정의해야 하는 경우가 있다.

특정 모듈을 업데이트해야 하는 경우, 모델의 복잡성 때문에 target_modules를 명확히 정의해야 LoRA가 올바르게 적용 됨.

즉,  모델의 구조적 차이로 인해, 특정 모듈을 명시적으로 지정하지 않으면 LoRA가 적용되지 않을 수 있음.

따라서, 모델 구조를 확인하고 레이어를 설정 함.

    peft_config = LoraConfig(
        task_type=TaskType.CAUSAL_LM,
        inference_mode=False,
        r=8,
        lora_alpha=32,
        lora_dropout=0.05,
        target_modules=["k_proj","v_proj","q_proj"]
        )

결과는 처참했다. 

이해성,간결성,정확성 면에서 모든 모델에 비해 월등히 떨어졌다.

Answer를 파악한 결과 BioGPT-Large-PubMedQA에 이상한 데이터가 많이 학습된거같다.

수식, 알수없는 XML등 Answer로 나왔으며, 잘못된 데이터가 많이 사전학습된 모델인거같다.