| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- coding test
- Embedding
- Python
- Parametric RAG
- Do it
- Baekjoon
- Document Augmentation
- DPO
- Noise
- lora
- Noise Robustness
- SFT
- odds
- DyPRAG
- moe
- reranking
- COT
- fine-tuning
- NLP
- Transformer
- Retriever
- Statistics
- retrieval
- RAG
- Algorithm
- 파인튜닝
- qwen
- LLM
- Hallucination
- GPT
Archives
- Today
- Total
목록ML (1)
왕구아니다
📝 "Alan Agresti의 "을 기반으로 공부한 내용을 정리한 포스팅입니다!4️⃣ 로지스틱 회귀데이터 분석을 하다 보면 반응변수(Y)가 연속형이 아닌 범주형(Categorical)인 경우를 흔히 마주합니다. '성공/실패', '질병 유/무', '구매/비구매' 처럼 말이죠. 이때 가장 표준적으로 사용되는 방법이 바로 로지스틱 회귀입니다.1. 왜 선형 회귀가 아닌 로지스틱 회귀인가?반응변수 Y가 0(실패) 또는 1(성공)의 값을 갖는 이항변수라고 가정해 봅시다. 설명변수 x에 따른 Y=1일 확률을 π(x)라고 할 때, 우리가 흔히 아는 선형 확률 모형(Linear Probability Model)을 적용하면 다음과 같습니다.하지만 이 모형은 치명적인 구조적 결함이 있습니다.확률의 범위 위반: x가 매우 ..
Long-term Memory/Statistics
2026. 1. 15. 15:50
