| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
- retrieval
- Parametric RAG
- Noise Robustness
- qwen
- moe
- Do it
- Hallucination
- DPO
- coding test
- Noise
- Retriever
- COT
- Python
- odds
- DyPRAG
- Transformer
- RAG
- GPT
- NLP
- lora
- Statistics
- Embedding
- Baekjoon
- Algorithm
- fine-tuning
- SFT
- 파인튜닝
- Document Augmentation
- LLM
- reranking
- Today
- Total
목록lora (8)
왕구아니다
본 논문 리뷰는 저의 개인적인 해석과 의견을 바탕으로 작성된 글입니다.내용 중 해석의 오류나 개념적인 착오가 있다면, 망설이지 마시고 댓글로 혼내주시면 감사하겠습니다~Preview- 2가지의 서로 다른 Task Skill를 결합해 새로운 Task를 해결할 수 있는지 실험한 논문- Task Skill를 결합하는 방법에는 Data-Mix, LoRA concat, LoRA linear merge 등등- 추가적으로 LoRA concat 방법론에서 각각의 LoRA를 병합할 때 사용하는 계수(가중치)를 학습 파라미터로 두는 Learnable Concat 방법 제안- 결론적으로 LoRA를 Concat하는 방법이 성능이 가장 좋았고, 이를 해석해보면 다른 방법들에 비해 서로 다른 Task Skill를 응용하는 능력까지..
본 논문 리뷰는 저의 개인적인 해석과 의견을 바탕으로 작성된 글입니다.내용 중 해석의 오류나 개념적인 착오가 있다면, 망설이지 마시고 댓글로 혼내주시면 감사하겠습니다~Preview- task vector에 대한 산술 연산을 이용해 모델을 편집(editing)하는 새로운 패러다임을 제안- 다양한 비전 모델과 NLP 모델에서 실험한 결과, 여러 개의 태스크에 특화된 task vector를 더하면, 모든 목표 태스크를 잘 수행하는 단일 모델을 만들 수 있었고, 경우에 따라서는 단일 태스크 성능조차 오히려 향상됨- 또한 task vector를 반대로 더하는 것을 통해, 예를 들어 유해한 발화 같은 원치 않는 행동을 제거하거나, 특정 태스크 자체를 의도적으로 잊게 만들 수 있으며, 그 과정에서도 다른 영역의 성능..
본 논문 리뷰는 저의 개인적인 해석과 의견을 바탕으로 작성된 글입니다.내용 중 해석의 오류나 개념적인 착오가 있다면, 망설이지 마시고 댓글로 혼내주시면 감사하겠습니다~ ‼️ 본 논문은 "Parametric Retrieval-Augmented Generation"이라는 논문을 변형한 논문이므로 해당 논문을 먼저 읽고 아래 포스팅된 내용들을 읽어보시는 것을 추천드립니다~ (중간중간 본 논문에 작성된 자세한 P-RAG 내용은 생략하겠습니다)https://wanggyuuu.tistory.com/13 [논문 리뷰] Parametric Retrieval Augmented Generation본 논문 리뷰는 저의 개인적인 해석과 의견을 바탕으로 작성된 글입니다.내용 중 해석의 오류나 개념적인 착오가 있다면, 망설이지 ..
💬 논문 읽으며 스스로 부족한 부분을 정리한 포스팅입니다!딥러닝, 특히 언어모델을 공부하다 보면 거의 항상 마주치는 수식이 있다. 바로 “다음 토큰 확률을 최대화하는 목적함수”다. 논문에서 자주 등장하는 두 가지 형태의 식은 다음과 같다.1) 일반적인 언어모델 학습 식https://wanggyuuu.tistory.com/7 [논문 리뷰] LoRA: Low-Rank Adaptation of Large Language Models본 논문 리뷰는 저의 개인적인 해석과 의견을 바탕으로 작성된 글입니다.내용 중 해석의 오류나 개념적인 착오가 있다면, 망설이지 마시고 댓글로 혼내주시면 감사하겠습니다~Preview- 이 논문은wanggyuuu.tistory.com2) Fine-tuning / Adapter 학습 식..
본 논문 리뷰는 저의 개인적인 해석과 의견을 바탕으로 작성된 글입니다.내용 중 해석의 오류나 개념적인 착오가 있다면, 망설이지 마시고 댓글로 혼내주시면 감사하겠습니다~Preview- 기존 PRAG의 문제점인 (1)각 문서마다 LoRA를 학습시키는 과정(one-to-one)과 (2) 추론 시 검색된 문서에 대응되는 LoRA 파라미터를 loading/unloading 반복하는 과정을 개선하고자 Poly-PRAG 제안- LLM에 주입할 LoRA 파라미터를 Latent Routing을 통해 특정 개수의 Expert(LoRA) 조합으로 전체 문서를 표현할 수 있게 학습 진행 (many-to-few)- 그 결과 Offline 과정에서의 저장 공간 효율화 및 Inference time 절약 달성Link- 논문 : h..
본 논문 리뷰는 저의 개인적인 해석과 의견을 바탕으로 작성된 글입니다.내용 중 해석의 오류나 개념적인 착오가 있다면, 망설이지 마시고 댓글로 혼내주시면 감사하겠습니다~Preview- 기존 P-RAG 실험 설계의 문제점을 이야기하고 다시 실험 진행 (평가 Metrics와 프롬프트 수정)- 위 실험을 바탕으로 두 가지 가설을 세우고 구체적으로 가설을 뒷받침하는 실험 진행 - 1) 파라미터 표현이 문서의 사실 정보를 완전히 담지 못할 수 있다 - 2) 파라미터 주입이 주어진 문맥에 대한 모델의 이해를 향상시킬 수 있다Link- 논문 : https://arxiv.org/abs/2510.12668 The Role of Parametric Injection-A Systematic Study of Parame..
본 논문 리뷰는 저의 개인적인 해석과 의견을 바탕으로 작성된 글입니다.내용 중 해석의 오류나 개념적인 착오가 있다면, 망설이지 마시고 댓글로 혼내주시면 감사하겠습니다~Preview- 문서를 입력으로 넣지 말고, 모델의 파라미터로 바꾸자- 문서를 LoRA 형태의 파라미터로 변환 후, 모델의 FFN에 삽입 - 추론 시에는 문서를 넣지 않고, 파라미터만 로드- Parametric RAG는 문서를 파라미터로 바꾸는 offline 과정과 실제 inference에 해당하는 online 과정으로 나뉨Link- 논문 : https://arxiv.org/abs/2501.15915- 코드 : https://github.com/oneal2000/PRAG GitHub - oneal2000/PRAG: Code for Param..
본 논문 리뷰는 저의 개인적인 해석과 의견을 바탕으로 작성된 글입니다.내용 중 해석의 오류나 개념적인 착오가 있다면, 망설이지 마시고 댓글로 혼내주시면 감사하겠습니다~Preview- 이 논문은 대규모 언어 모델을 효율적으로 미세 조정하는 새로운 방법인 LoRA(Low-Rank Adaptation)를 제안- 기존의 full fine-tuning은 엄청난 GPU 메모리와 시간이 필요했지만, LoRA는 가중치 행렬을 저차원 행렬 곱으로 분해해 소수의 파라미터만 학습한다는 아이디어로 이 문제를 해결- 이를 통해 메모리 사용량을 획기적으로 줄이면서도 성능 저하 없이 모델을 효율적으로 재적응(fine-tuning)할 수 있음을 보여줌Link- 논문 : https://arxiv.org/abs/2106.09685- 코..
