--- license: apache-2.0 language: - ko base_model: Qwen/Qwen3-8B-Base datasets: - tellang/yeji-fortune-telling-ko-v3 tags: - fortune-telling - saju - bazi - tarot - horoscope - korean - fine-tuned - qwen3 - rslora pipeline_tag: text-generation library_name: transformers model-index: - name: yeji-8b-rslora-v7 results: [] --- # YEJI-8B-RSLoRA-v7 한국어 운세/점술 도메인 특화 8B LLM. Qwen3-8B-Base 기반 RSLoRA 파인튜닝. ## Model Description YEJI 프로젝트의 8B 주력 모델입니다. Qwen3-8B-Base를 RSLoRA (Rank-Stabilized LoRA)로 파인튜닝하여 사주, 점성술, 타로, 화투 4개 도메인에서 전문 상담 능력을 갖추었습니다. - **Base Model**: Qwen/Qwen3-8B-Base - **Parameters**: 8.2B - **Fine-tuning**: RSLoRA - **Training Data**: yeji-fortune-telling-ko-v3 - **Domains**: 사주(Bazi) · 서양 점성술(Astrology) · 타로(Tarot) · 화투 ## Version History | Version | Base | Method | Params | Status | |---------|------|--------|--------|--------| | v1 | Qwen3-8B | QDoRA | 8.2B | Deprecated | | v2 | Qwen3-8B | QLoRA | 8.2B | Deprecated | | v4 | Qwen3-8B | RSLoRA + T-Shirt | 8.2B | Deprecated | | **v7** | **Qwen3-8B** | **RSLoRA** | **8.2B** | **Stable** | ## Usage ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "tellang/yeji-8b-rslora-v7" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") messages = [ {"role": "system", "content": "당신은 전문 사주 상담사입니다."}, {"role": "user", "content": "1997년 10월 24일생의 올해 운세를 봐주세요."} ] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) inputs = tokenizer(text, return_tensors="pt").to(model.device) outputs = model.generate(**inputs, max_new_tokens=512, temperature=0.7) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` ## Quantized Versions | Format | Model | Use Case | |--------|-------|----------| | **AWQ 4-bit** | [yeji-8b-rslora-v7-AWQ](https://huggingface.co/tellang/yeji-8b-rslora-v7-AWQ) | vLLM 서빙 | ## Successor Models (4B, Lighter) | Model | Params | Status | |-------|--------|--------| | [yeji-4b-instruct-v9](https://huggingface.co/tellang/yeji-4b-instruct-v9) | 4.0B | Latest | | [yeji-4b-instruct-v9-AWQ](https://huggingface.co/tellang/yeji-4b-instruct-v9-AWQ) | ~1.3B | Production | ## Limitations - 한국어 운세/점술 도메인에 특화. 범용 대화 성능은 Qwen3-8B-Instruct 대비 저하. - 점술 결과는 엔터테인먼트 목적. 실제 의사결정에 사용 금지. - 8B 모델로 VRAM ~16GB 필요. 경량화가 필요하면 4B 또는 AWQ 버전 권장.