전체 글(25)
-
Deep Contextualized Word Representations
1. Bidirectional Language Modelsfoward language Modelsinput sentence가 N개의 토큰으로 이루어져 있다고 할 때, (t1,...,tk−1)의 정보를 가지고 문맥에 대한 정보를 얻고 토큰 tk의 확률을 계산 함.아래 예시로 설명할 수 있음.질문과 컨텍스트의 상황:질문: "What do you love most?"컨텍스트: "I Love Language"정답 확률:현재 토큰이 "Love"이며, 다음 토큰을 예측하는 시점: 현재 토큰이라고 표현 정의: 마지막 층 L-th layer에서 생성된 벡터로, tk = "Love"와 이전 문맥 정보를 포함한 문맥 표현이 예시에서 문맥 정보라고 표현 정의: 다음 토큰 확률계산:모델은 문맥 정보를 기반으로 다음 토..
2024.11.15 -
추천 시스템 정리
Collaborative Filtering (CF, 협업필터링)1) Memory-Based ApproachUser-based Filtering1. 평점 유사도 기반으로 자신과 유사한 사용자를 찾음2. 유사한 사용자가 좋아하는 item 추천 여기서 유사한 정도(거리) 측정 방법은 다양함 - 사용자(행) - 아이템(열) 행렬을 사용함 • 일반적인 거리 측정 방법론 - Cosine Similarity ( 일반적으로 사용되는 유사도 ) 사용자 u와 사용자 u′가 같은 방향성을 보고 있지는를 평가함 - Pearson Similarity 평균적인 경향성에서 얼마나 차이가 나는지를 기반으로 함 Centered Cosine Similarity..
2024.10.25 -
Bio GPT Fine-Tuning
llama2로 판독문 데이터를 학습하였고, 더 좋은 모델을 찾기위해 여러가지 분석 후 Bio Gpt의 BioGPT-Large-PubMedQA를 선택하였다.LLama2에서는 LoRA 기법을 사용할 때 target_modules를 정의하는 오류가 발생하지 않았지만, 다른 모델에서는 이를 정의해야 하는 경우가 있다.특정 모듈을 업데이트해야 하는 경우, 모델의 복잡성 때문에 target_modules를 명확히 정의해야 LoRA가 올바르게 적용 됨.즉, 모델의 구조적 차이로 인해, 특정 모듈을 명시적으로 지정하지 않으면 LoRA가 적용되지 않을 수 있음.따라서, 모델 구조를 확인하고 레이어를 설정 함. peft_config = LoraConfig( task_type=TaskType.CAUSAL..
2024.06.11 -
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
COT는 LLM의 성능을 높이는 여러 방법 중 프롬프트를 활용하는 방법으로주어진 질문에 대해 텍스트에서 답을 찾아 제공하는 질문 답변 (Question Answering)에서 추론 Task 성능을 끌어올리는 방법이다. 이미지를 사전에 학습시킨 모델에서 원본 이미지만 넣고 최상의 결과를 기대하지않는다.사전에 이미지를 개선하거나, 출력된 바운딩 박스를 조정하기도한다.이처럼 LLM도 사전 학습된 모델을 수정하지않는 상태로 특별한 학습 설정 없이 출력을, 즉 프롬프팅으로 기대하는 결과를 나오게 만들 수 있다.COT를 리뷰하기전 대표적인 프롬프팅의 배경으로 Zero Shot, Few Shot을 볼 수있다.Zero-Shot은 예시나 정보 없이 그대로 단답형으로 출력하는 것이라면Few-Shot은 Prompt의 벡터에..
2024.06.11 -
LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale
LLM 훈련 및 추론에 엄청난 GPU 메모리가 요구된다. 추론 단계만 해도, 모델 파라미터 수 x 자료형 x 1.2 정도의 용량이 필요하다. 예를 들어, 40B 크기의 모델을 4바이트 자료형으로 구동하면 대략 190GB의 메모리가 필요하다. (여기서 1.2는 어텐션 캐시나 토큰 생성과 같은 추가 메모리 요구를 고려한 배수이다.)이러한 메모리 요구 사항을 줄이려면 자료형을 조정하는 양자화 기법을 사용할 수 있다. 양자역학에 따르면, 거시적인 세계는 연속적이지만 미시적인 세계는 이산화된 형태에 가까워서, 분절된 행렬 값으로 표현하기 적절하다고 한다. 딥러닝에서의 양자화란, 연속적인 형태의 정보를 이산화된 형태로 변환하여 의미를 유지하면서 정보 크기를 압축하는 기법을 말한다. 그러므로 그 어원은 양자역학에서 ..
2024.05.28 -
Swin Transformer와 재활용 쓰레기 이미지분류
보호되어 있는 글입니다.
2024.05.17