콘텐츠로 이동

99. 자주 묻는 질문 (FAQ)#

🎯 용도: 궁금한 것 빠르게 찾기
💡 없으면: Claude Code에게 물어보세요


🎓 개념#

Q1. 왜 ChatGPT API 쓰지 않고 파인튜닝해요?#

A: 3가지 이유: 1. PHI 보안: 환자 정보를 외부 서버에 보낼 수 없음 2. 비용: 월 수만 건 호출 시 수백만원 절약 3. 도메인 특화: 병원 용어(요양·전문·의원·재활·한방 유형별)를 정확히 알아야 함

Q2. LoRA와 Full Fine-tuning 차이?#

A: - Full: 모델 전체 수정 (수백GB VRAM 필요, 맥미니 불가) - LoRA: "수정사항"만 따로 학습 (10GB로 가능) - 품질 차이: 5-10% 정도. 하지만 Full은 우리가 불가능.

Q3. 왜 Gemma 4인가요? Llama 3 안 되나?#

A: - Apache 2.0 라이선스 (상업적 자유) - 한국어 지원 좋음 - 맥미니 M4에 최적화 - Llama 3도 가능하지만 라이선스가 까다로움 (Meta Community License)

Q4. 왜 Colab 안 쓰고 맥미니에서?#

A: 의료 데이터 보안. Colab에 올리면 Google 서버에 저장됨. - 맥미니 로컬: PHI 외부 유출 0 - 시간: Colab A100 2-3시간 vs 맥미니 3-5시간 (견딜 만함) - 비용: Colab Pro $50/월 → 무료

Q5. 양자화(Q4_K_M)하면 품질 얼마나 떨어져요?#

A: 체감 거의 없음 (원본 대비 94%). - FP16: 원본 (8GB) - Q8: 98% (4GB) - Q4_K_M: 94% (3GB) ⭐ - Q3: 88% (2GB, 눈에 띄게 떨어짐)


🛠️ 실행#

Q6. make dummy하면 데이터 진짜인가요?#

A: 무작위 생성된 가짜. 파이프라인 검증용입니다. - 형식은 맞지만 내용은 엉터리 - 이걸로 학습하면 헛소리함 (정상) - 실제 데이터 준비되기 전 환경 테스트용

Q7. 학습 시간이 5시간 넘어가요#

A: 데이터량에 따라 다름: - 더미 250건: 1-2시간 - 실제 500건: 1.5-2.5시간 - 실제 1,500건: 3-5시간 - 실제 5,000건: 6-10시간

5시간 넘으면 06_TROUBLESHOOTING.md T6 참조.

Q8. 학습 중 맥미니 써도 되나요?#

A: 가벼운 작업만. - 웹 서핑, 메일: OK - 다른 앱 동시 사용: 메모리 부족 위험 - Chrome 여러 탭: 메모리 많이 먹음 - 추천: 학습 시작 후 다른 작업은 맥북에서

Q9. 학습 중간에 멈추고 나중에 이어할 수 있나요?#

A: 네, 체크포인트 활용. - 100 iter마다 자동 저장 - 재개 시 --resume-adapter-file 옵션 - 06_TROUBLESHOOTING.md T8 참조

Q10. 파일을 실수로 지웠어요!#

A: 상황별: - outputs/ 지움: 학습 다시 (다운로드 된 베이스 모델은 ~/.cache에 있음) - data/processed/ 지움: make data 재실행 - data/raw/ 지움: 😱 백업 확인! 없으면 재수집 - 어댑터 지움: 백업 확인, HF 업로드 했으면 다운로드

교훈: 주기적 백업 습관.


📊 품질#

Q11. 종합 60% 나왔어요. 쓸 만한가요?#

A: 맥락에 따라: - 더미 데이터로 60%: 정상 (파이프라인 OK) - 실제 데이터로 60%: 부족 (65% 최소, 75% 목표)

더미 60% → 실제 데이터 수집 → 재학습 → 70%+ 목표

Q12. 카테고리별로 점수 차이가 심해요#

A: 데이터 불균형이 원인. - consulting 50% vs medical_terms 80% → consulting 데이터 부족 - 해결: 07_DATA_COLLECTION.md 참조해서 약한 카테고리 보강

Q13. 답변이 너무 짧아요/길어요#

A: 학습 데이터 길이가 영향. - 너무 짧음 (50자 이하): 학습 데이터도 짧았음. 더 자세한 답변 데이터 필요 - 너무 김 (2000자+): 학습 데이터가 길었음. 간결한 예시 추가

시스템 프롬프트로도 조정 가능:

당신은 병원 도메인(요양·전문·의원·재활·한방) 전문 AI입니다. 답변은 300-500자로 간결하게.

Q14. 같은 질문에 매번 다른 답변이 나와요#

A: 정상. LLM은 매번 조금씩 다른 답변 생성. - 완전 같게 하려면: temperature=0 설정 - 다양성 원하면: temperature=0.7 (기본값) - 의료 답변은 temperature=0.3 추천 (일관성)

Ollama에서:

ollama run mediconsol-v1 --option temperature=0.3

Q15. 특정 질문에만 이상한 답변이 나와요#

A: Bad case. 다음 재학습에 반영. 1. data/bad_cases/ 에 기록 2. 비슷한 질문/답변 쌍 10-20건 추가 3. 다음 버전에서 개선 확인


🔐 보안#

Q16. 학습 데이터가 Gemma에 원래 포함되나요?#

A: 아니요. LoRA는 "수정사항"만 학습. - 베이스 Gemma는 그대로 - 우리 어댑터만 학습 데이터 반영 - 어댑터만 관리하면 됨

Q17. HuggingFace에 업로드하면 안전한가요?#

A: Private 저장소라면 안전. - Public: 누구나 접근 (❌) - Private: 권한 있는 사람만 (✅) - make upload-all--private 옵션 확인

Q18. 맥미니가 해킹되면?#

A: 보안 체크: - [ ] FileVault 켜기 (디스크 암호화) - [ ] 방화벽 설정 - [ ] 자동 업데이트 - [ ] 강한 비밀번호 - [ ] SSH 키 기반 접속만 - [ ] Cloudflare Tunnel + Access (외부 접근)

Q19. 학습 데이터를 실수로 public HF에 올렸어요#

A: 즉시 대응: 1. HF 저장소 즉시 삭제 (Settings → Delete) 2. 캐시에 남아있을 수 있으니 완전 삭제 요청 (HF 지원팀) 3. 관련자 통보 (PHI 유출) 4. 사후 분석 + 재발 방지


💰 비용#

Q20. 월 비용 얼마 들어요?#

A: 거의 0원. - 맥미니 전기세: 월 5,000원 (24/7) - 인터넷: 기존 - HuggingFace Private: 무료 - Cloudflare Tunnel: 무료 - Claude Code (유료): 별도

: 월 5,000원 수준

비교: ChatGPT API 월 수십만원, Colab Pro $50

Q21. 맥미니 고장나면?#

A: 대안: - Mac Studio: 더 큰 형님 (48GB/64GB RAM) - RunPod: 시간당 $1 GPU 대여 - HF Inference Endpoint: 시간당 $0.5~ - Colab Pro: 월 $50

즉, 맥미니는 가성비 최강이지만 대안 많음.


🏥 메디콘솔 특화#

Q22. Voice ENR에 어떻게 연동해요?#

A: Ollama API 호출:

import requests

response = requests.post('http://localhost:11434/api/generate', json={
    'model': 'mediconsol-v1:latest',
    'prompt': f'음성 입력을 SOAP로 정리: {voice_text}',
    'stream': False
})
soap = response.json()['response']

Q23. 여러 제품에 동시 배포 가능?#

A: 네, 한 모델 여러 서비스. - Voice ENR → localhost:11434 호출 - RNDiary → 같은 곳 - MediConSol Connect → 같은 곳 - n8n 워크플로우 → 같은 곳

맥미니 한 대가 동시에 여러 서비스 담당.

Q24. 고객사 병원에도 배포 가능?#

A: 네, 방법 2가지.

방법 1: 맥미니 API 공유 - Cloudflare Tunnel로 외부 노출 - 고객사별 API 키 발급 - 맥미니 한 대로 여러 고객사

방법 2: 고객사 자체 Ollama - 고객사 서버에 GGUF 파일 설치 - 데이터 고객사 내부만 유통 - 더 안전하지만 관리 부담

Q25. 특정 고객사만 다른 데이터로 튜닝?#

A: 멀티 어댑터 전략.

베이스 모델: Gemma 4 E4B
├── mediconsol-base (공통 도메인)
├── mediconsol-효사랑 (효사랑 특화 어댑터)
├── mediconsol-원주불로 (원주불로 특화)
└── ...

각 고객사는 베이스 + 자기 어댑터 조합 사용.


🔧 기술#

Q26. Gemma 4 26B 모델은 왜 안 써요?#

A: 맥미니 24GB로 빡빡. - 26B Q4: 약 16GB - 시스템 5GB + 학습 오버헤드 10GB → 총 31GB 필요 - 24GB 맥미니로는 부족

언젠가 업그레이드 시 가능.

Q27. Whisper (음성 인식)도 맥미니에서 돌 수 있나요?#

A: . whisper.cpp 사용. - mlx-whisper도 있음 (더 빠름) - E4B와 동시 구동 가능 (메모리 여유)

Q28. RAG (검색 증강)도 같이 하면?#

A: 좋은 조합! - 파인튜닝: 도메인 이해, 스타일 - RAG: 최신 정보, 근거 자료

예시: 메디콘솔 규정집을 RAG로, 간호 기록 스타일은 파인튜닝으로.

구현: n8n + 벡터 DB (Supabase pgvector) + Ollama.

Q29. 맥미니 말고 Windows/Linux에서 돌 수 있나요?#

A: MLX는 Apple Silicon 전용. 대안: - Windows/Linux: Unsloth + CUDA GPU (RTX 4090 등) - 기존 스크립트: 02_train_lora.py 사용 (Colab 노트북 참고)

Q30. 여러 버전 동시에 서비스?#

A: Ollama는 가능.

# v1.0.0은 안정, v1.1.0은 베타
ollama list
# mediconsol-v1:1.0.0   ← 안정 프로덕션
# mediconsol-v1:1.1.0   ← 베타 테스트
# mediconsol-v1:latest  ← 1.0.0과 동일

# 베타 그룹은 1.1.0 사용
# 일반 사용자는 latest (=1.0.0)


📚 학습#

Q31. 처음부터 끝까지 얼마나 걸려요?#

A: 현실적인 일정: - 1주차: 개념 학습 + 첫 더미 학습 - 2-3주차: 실제 데이터 수집 - 4주차: 정식 학습 + 평가 - 5주차: 프로덕션 배포

총 약 1개월. 경험 쌓이면 2주로 단축.

Q32. 영어로 된 튜토리얼이 더 좋아요?#

A: 맞음, LLM 최신 정보는 영어가 빠름. 추천: - HuggingFace Course - MLX-LM 공식 - Unsloth Docs

하지만 메디콘솔 도메인 특화는 이 매뉴얼에만 있음. 한국 의료 맥락을 함께 익히세요.

Q33. 다음에 더 깊게 공부하려면?#

A: 난이도순: 1. LoRA 논문 (2021): "LoRA: Low-Rank Adaptation of Large Language Models" 2. QLoRA 논문: 4-bit 양자화 학습 3. Transformer 원리: "The Illustrated Transformer" 블로그 4. PEFT 문서: HuggingFace PEFT 라이브러리 5. 직접 실험: r=8, 16, 32, 64 비교

Q34. AI/ML 배경이 없는데 따라갈 수 있어요?#

A: 네, 이 매뉴얼은 비전공자 기준. - Python 기본만 알면 충분 - 명령어는 그대로 복사 - 개념은 비유로 설명 - 막히면 Claude Code에게 물어보기


🎯 기타#

Q35. Harness 확장 안 하고 그냥 CLI로만 써도 되나요?#

A: 네, 충분. Harness는 관리 편의성 도구. - Harness 있으면: 여러 LLM 프로젝트 체계적 관리 - 없어도: mediconsol-llm 한 프로젝트는 문제 없음

Q36. 직원 교육에 이 매뉴얼 써도 되나요?#

A: 자유롭게 활용하세요. Apache 2.0 라이선스. - 내부 교육 OK - 고객사 공유 OK
- 책으로 만들기 OK - 출처 "메디콘솔" 언급 정도면 충분

Q37. 새 Gemma 5 나오면 어떻게 해요?#

A: 업그레이드 경로: 1. Gemma 5 출시 확인 2. 메이저 버전 올림: v1.x.x → v2.0.0 3. 기존 데이터로 재학습 (2-3일 소요) 4. 블라인드 평가로 v1 vs v2 비교 5. v2가 나으면 전환, 아니면 v1 유지


🤔 여기에 없으면#

Claude Code에게 물어보세요:

"FAQ에 없는 질문인데, [상황]에서 [문제]가 있어. 어떻게 해야 할까?"

또는 관련 문서 참조:

영역 문서
개념 01_WHAT_IS_LLM.md
용어 02_GLOSSARY.md
실행 04_FIRST_RUN.md
에러 06_TROUBLESHOOTING.md
데이터 07_DATA_COLLECTION.md
설정 08_HYPERPARAMETERS.md
평가 09_EVALUATION.md
운영 10_OPERATIONS.md

💡 이 문서에 질문 추가하기#

자주 받는 새 질문이 생기면 여기에 추가하세요:

### Qxx. [질문]

**A**: [답변]

교육 자료는 계속 진화합니다.