99. 자주 묻는 질문 (FAQ)#
🎯 용도: 궁금한 것 빠르게 찾기
💡 없으면: Claude Code에게 물어보세요
🎓 개념#
Q1. 왜 ChatGPT API 쓰지 않고 파인튜닝해요?#
A: 3가지 이유: 1. PHI 보안: 환자 정보를 외부 서버에 보낼 수 없음 2. 비용: 월 수만 건 호출 시 수백만원 절약 3. 도메인 특화: 병원 용어(요양·전문·의원·재활·한방 유형별)를 정확히 알아야 함
Q2. LoRA와 Full Fine-tuning 차이?#
A: - Full: 모델 전체 수정 (수백GB VRAM 필요, 맥미니 불가) - LoRA: "수정사항"만 따로 학습 (10GB로 가능) - 품질 차이: 5-10% 정도. 하지만 Full은 우리가 불가능.
Q3. 왜 Gemma 4인가요? Llama 3 안 되나?#
A: - Apache 2.0 라이선스 (상업적 자유) - 한국어 지원 좋음 - 맥미니 M4에 최적화 - Llama 3도 가능하지만 라이선스가 까다로움 (Meta Community License)
Q4. 왜 Colab 안 쓰고 맥미니에서?#
A: 의료 데이터 보안. Colab에 올리면 Google 서버에 저장됨. - 맥미니 로컬: PHI 외부 유출 0 - 시간: Colab A100 2-3시간 vs 맥미니 3-5시간 (견딜 만함) - 비용: Colab Pro $50/월 → 무료
Q5. 양자화(Q4_K_M)하면 품질 얼마나 떨어져요?#
A: 체감 거의 없음 (원본 대비 94%). - FP16: 원본 (8GB) - Q8: 98% (4GB) - Q4_K_M: 94% (3GB) ⭐ - Q3: 88% (2GB, 눈에 띄게 떨어짐)
🛠️ 실행#
Q6. make dummy하면 데이터 진짜인가요?#
A: 무작위 생성된 가짜. 파이프라인 검증용입니다. - 형식은 맞지만 내용은 엉터리 - 이걸로 학습하면 헛소리함 (정상) - 실제 데이터 준비되기 전 환경 테스트용
Q7. 학습 시간이 5시간 넘어가요#
A: 데이터량에 따라 다름: - 더미 250건: 1-2시간 - 실제 500건: 1.5-2.5시간 - 실제 1,500건: 3-5시간 - 실제 5,000건: 6-10시간
5시간 넘으면 06_TROUBLESHOOTING.md T6 참조.
Q8. 학습 중 맥미니 써도 되나요?#
A: 가벼운 작업만. - 웹 서핑, 메일: OK - 다른 앱 동시 사용: 메모리 부족 위험 - Chrome 여러 탭: 메모리 많이 먹음 - 추천: 학습 시작 후 다른 작업은 맥북에서
Q9. 학습 중간에 멈추고 나중에 이어할 수 있나요?#
A: 네, 체크포인트 활용.
- 100 iter마다 자동 저장
- 재개 시 --resume-adapter-file 옵션
- 06_TROUBLESHOOTING.md T8 참조
Q10. 파일을 실수로 지웠어요!#
A: 상황별:
- outputs/ 지움: 학습 다시 (다운로드 된 베이스 모델은 ~/.cache에 있음)
- data/processed/ 지움: make data 재실행
- data/raw/ 지움: 😱 백업 확인! 없으면 재수집
- 어댑터 지움: 백업 확인, HF 업로드 했으면 다운로드
교훈: 주기적 백업 습관.
📊 품질#
Q11. 종합 60% 나왔어요. 쓸 만한가요?#
A: 맥락에 따라: - 더미 데이터로 60%: 정상 (파이프라인 OK) - 실제 데이터로 60%: 부족 (65% 최소, 75% 목표)
더미 60% → 실제 데이터 수집 → 재학습 → 70%+ 목표
Q12. 카테고리별로 점수 차이가 심해요#
A: 데이터 불균형이 원인. - consulting 50% vs medical_terms 80% → consulting 데이터 부족 - 해결: 07_DATA_COLLECTION.md 참조해서 약한 카테고리 보강
Q13. 답변이 너무 짧아요/길어요#
A: 학습 데이터 길이가 영향. - 너무 짧음 (50자 이하): 학습 데이터도 짧았음. 더 자세한 답변 데이터 필요 - 너무 김 (2000자+): 학습 데이터가 길었음. 간결한 예시 추가
시스템 프롬프트로도 조정 가능:
Q14. 같은 질문에 매번 다른 답변이 나와요#
A: 정상. LLM은 매번 조금씩 다른 답변 생성.
- 완전 같게 하려면: temperature=0 설정
- 다양성 원하면: temperature=0.7 (기본값)
- 의료 답변은 temperature=0.3 추천 (일관성)
Ollama에서:
Q15. 특정 질문에만 이상한 답변이 나와요#
A: Bad case. 다음 재학습에 반영.
1. data/bad_cases/ 에 기록
2. 비슷한 질문/답변 쌍 10-20건 추가
3. 다음 버전에서 개선 확인
🔐 보안#
Q16. 학습 데이터가 Gemma에 원래 포함되나요?#
A: 아니요. LoRA는 "수정사항"만 학습. - 베이스 Gemma는 그대로 - 우리 어댑터만 학습 데이터 반영 - 어댑터만 관리하면 됨
Q17. HuggingFace에 업로드하면 안전한가요?#
A: Private 저장소라면 안전.
- Public: 누구나 접근 (❌)
- Private: 권한 있는 사람만 (✅)
- make upload-all의 --private 옵션 확인
Q18. 맥미니가 해킹되면?#
A: 보안 체크: - [ ] FileVault 켜기 (디스크 암호화) - [ ] 방화벽 설정 - [ ] 자동 업데이트 - [ ] 강한 비밀번호 - [ ] SSH 키 기반 접속만 - [ ] Cloudflare Tunnel + Access (외부 접근)
Q19. 학습 데이터를 실수로 public HF에 올렸어요#
A: 즉시 대응: 1. HF 저장소 즉시 삭제 (Settings → Delete) 2. 캐시에 남아있을 수 있으니 완전 삭제 요청 (HF 지원팀) 3. 관련자 통보 (PHI 유출) 4. 사후 분석 + 재발 방지
💰 비용#
Q20. 월 비용 얼마 들어요?#
A: 거의 0원. - 맥미니 전기세: 월 5,000원 (24/7) - 인터넷: 기존 - HuggingFace Private: 무료 - Cloudflare Tunnel: 무료 - Claude Code (유료): 별도
총: 월 5,000원 수준
비교: ChatGPT API 월 수십만원, Colab Pro $50
Q21. 맥미니 고장나면?#
A: 대안: - Mac Studio: 더 큰 형님 (48GB/64GB RAM) - RunPod: 시간당 $1 GPU 대여 - HF Inference Endpoint: 시간당 $0.5~ - Colab Pro: 월 $50
즉, 맥미니는 가성비 최강이지만 대안 많음.
🏥 메디콘솔 특화#
Q22. Voice ENR에 어떻게 연동해요?#
A: Ollama API 호출:
import requests
response = requests.post('http://localhost:11434/api/generate', json={
'model': 'mediconsol-v1:latest',
'prompt': f'음성 입력을 SOAP로 정리: {voice_text}',
'stream': False
})
soap = response.json()['response']
Q23. 여러 제품에 동시 배포 가능?#
A: 네, 한 모델 여러 서비스.
- Voice ENR → localhost:11434 호출
- RNDiary → 같은 곳
- MediConSol Connect → 같은 곳
- n8n 워크플로우 → 같은 곳
맥미니 한 대가 동시에 여러 서비스 담당.
Q24. 고객사 병원에도 배포 가능?#
A: 네, 방법 2가지.
방법 1: 맥미니 API 공유 - Cloudflare Tunnel로 외부 노출 - 고객사별 API 키 발급 - 맥미니 한 대로 여러 고객사
방법 2: 고객사 자체 Ollama - 고객사 서버에 GGUF 파일 설치 - 데이터 고객사 내부만 유통 - 더 안전하지만 관리 부담
Q25. 특정 고객사만 다른 데이터로 튜닝?#
A: 멀티 어댑터 전략.
베이스 모델: Gemma 4 E4B
├── mediconsol-base (공통 도메인)
├── mediconsol-효사랑 (효사랑 특화 어댑터)
├── mediconsol-원주불로 (원주불로 특화)
└── ...
각 고객사는 베이스 + 자기 어댑터 조합 사용.
🔧 기술#
Q26. Gemma 4 26B 모델은 왜 안 써요?#
A: 맥미니 24GB로 빡빡. - 26B Q4: 약 16GB - 시스템 5GB + 학습 오버헤드 10GB → 총 31GB 필요 - 24GB 맥미니로는 부족
언젠가 업그레이드 시 가능.
Q27. Whisper (음성 인식)도 맥미니에서 돌 수 있나요?#
A: 네. whisper.cpp 사용.
- mlx-whisper도 있음 (더 빠름)
- E4B와 동시 구동 가능 (메모리 여유)
Q28. RAG (검색 증강)도 같이 하면?#
A: 좋은 조합! - 파인튜닝: 도메인 이해, 스타일 - RAG: 최신 정보, 근거 자료
예시: 메디콘솔 규정집을 RAG로, 간호 기록 스타일은 파인튜닝으로.
구현: n8n + 벡터 DB (Supabase pgvector) + Ollama.
Q29. 맥미니 말고 Windows/Linux에서 돌 수 있나요?#
A: MLX는 Apple Silicon 전용. 대안:
- Windows/Linux: Unsloth + CUDA GPU (RTX 4090 등)
- 기존 스크립트: 02_train_lora.py 사용 (Colab 노트북 참고)
Q30. 여러 버전 동시에 서비스?#
A: Ollama는 가능.
# v1.0.0은 안정, v1.1.0은 베타
ollama list
# mediconsol-v1:1.0.0 ← 안정 프로덕션
# mediconsol-v1:1.1.0 ← 베타 테스트
# mediconsol-v1:latest ← 1.0.0과 동일
# 베타 그룹은 1.1.0 사용
# 일반 사용자는 latest (=1.0.0)
📚 학습#
Q31. 처음부터 끝까지 얼마나 걸려요?#
A: 현실적인 일정: - 1주차: 개념 학습 + 첫 더미 학습 - 2-3주차: 실제 데이터 수집 - 4주차: 정식 학습 + 평가 - 5주차: 프로덕션 배포
총 약 1개월. 경험 쌓이면 2주로 단축.
Q32. 영어로 된 튜토리얼이 더 좋아요?#
A: 맞음, LLM 최신 정보는 영어가 빠름. 추천: - HuggingFace Course - MLX-LM 공식 - Unsloth Docs
하지만 메디콘솔 도메인 특화는 이 매뉴얼에만 있음. 한국 의료 맥락을 함께 익히세요.
Q33. 다음에 더 깊게 공부하려면?#
A: 난이도순: 1. LoRA 논문 (2021): "LoRA: Low-Rank Adaptation of Large Language Models" 2. QLoRA 논문: 4-bit 양자화 학습 3. Transformer 원리: "The Illustrated Transformer" 블로그 4. PEFT 문서: HuggingFace PEFT 라이브러리 5. 직접 실험: r=8, 16, 32, 64 비교
Q34. AI/ML 배경이 없는데 따라갈 수 있어요?#
A: 네, 이 매뉴얼은 비전공자 기준. - Python 기본만 알면 충분 - 명령어는 그대로 복사 - 개념은 비유로 설명 - 막히면 Claude Code에게 물어보기
🎯 기타#
Q35. Harness 확장 안 하고 그냥 CLI로만 써도 되나요?#
A: 네, 충분. Harness는 관리 편의성 도구.
- Harness 있으면: 여러 LLM 프로젝트 체계적 관리
- 없어도: mediconsol-llm 한 프로젝트는 문제 없음
Q36. 직원 교육에 이 매뉴얼 써도 되나요?#
A: 자유롭게 활용하세요. Apache 2.0 라이선스.
- 내부 교육 OK
- 고객사 공유 OK
- 책으로 만들기 OK
- 출처 "메디콘솔" 언급 정도면 충분
Q37. 새 Gemma 5 나오면 어떻게 해요?#
A: 업그레이드 경로: 1. Gemma 5 출시 확인 2. 메이저 버전 올림: v1.x.x → v2.0.0 3. 기존 데이터로 재학습 (2-3일 소요) 4. 블라인드 평가로 v1 vs v2 비교 5. v2가 나으면 전환, 아니면 v1 유지
🤔 여기에 없으면#
Claude Code에게 물어보세요:
또는 관련 문서 참조:
| 영역 | 문서 |
|---|---|
| 개념 | 01_WHAT_IS_LLM.md |
| 용어 | 02_GLOSSARY.md |
| 실행 | 04_FIRST_RUN.md |
| 에러 | 06_TROUBLESHOOTING.md |
| 데이터 | 07_DATA_COLLECTION.md |
| 설정 | 08_HYPERPARAMETERS.md |
| 평가 | 09_EVALUATION.md |
| 운영 | 10_OPERATIONS.md |
💡 이 문서에 질문 추가하기#
자주 받는 새 질문이 생기면 여기에 추가하세요:
교육 자료는 계속 진화합니다.