YAML Metadata Warning: empty or missing yaml metadata in repo card

Check out the documentation for more information.

🇻🇳 Hyper Mamba V3.0 Vietnam Edition - Qwen2 Tokenizer 🚀

Model Description

Hyper Mamba V3.0 Vietnam Edition - Model ngôn ngữ được tối ưu đặc biệt cho tiếng Việt với tokenizer Qwen2 mạnh mẽ!

🔥 Tính năng nổi bật:

  • Tokenizer Qwen2 (vocab_size: 151,646) - Mạnh cho tiếng Việt
  • Vietnamese Linear Attention - Tối ưu cho ngôn ngữ Việt
  • Super SwiGLU với layer scaling
  • 16 layers, 896 hidden size - Mạnh mẽ hơn
  • Enhanced SSM với state size 20
  • Curriculum Learning & Few-shot adaptation
  • Ready for fine-tuning trên data tiếng Việt

📊 Thông số model:

  • Parameters: 285,400,208
  • Architecture: Mamba + Vietnamese Attention
  • Vocab Size: 151,646 (Qwen2)
  • Hidden Size: 896
  • Layers: 16
  • State Size: 20
  • Max Length: 4096 tokens

🚀 Cách sử dụng:

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

# Load model và tokenizer
tokenizer = AutoTokenizer.from_pretrained("hoanghai2110/hyper-mamba-v3-vietnam-qwen2", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("hoanghai2110/hyper-mamba-v3-vietnam-qwen2", trust_remote_code=True)

# Test với tiếng Việt
text = "Xin chào, tôi là một AI được tạo ra để"
inputs = tokenizer(text, return_tensors="pt")

# Generate
with torch.no_grad():
    outputs = model.generate(
        inputs.input_ids,
        max_new_tokens=100,
        temperature=0.8,
        top_p=0.9,
        do_sample=True,
        pad_token_id=tokenizer.pad_token_id
    )

# Decode kết quả
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(generated_text)

🎯 Fine-tuning cho tiếng Việt:

from transformers import Trainer, TrainingArguments

# Chuẩn bị dataset tiếng Việt
def tokenize_vietnamese(examples):
    return tokenizer(examples["text"], truncation=True, padding="max_length", max_length=1024)

vietnamese_dataset = your_dataset.map(tokenize_vietnamese, batched=True)

# Training arguments
training_args = TrainingArguments(
    output_dir="./fine-tuned-vietnam-mamba",
    overwrite_output_dir=True,
    num_train_epochs=5,
    per_device_train_batch_size=2,
    per_device_eval_batch_size=2,
    warmup_steps=1000,
    weight_decay=0.01,
    logging_dir="./logs",
    logging_steps=50,
    save_steps=2000,
    eval_steps=2000,
    evaluation_strategy="steps",
    save_strategy="steps",
    load_best_model_at_end=True,
    gradient_checkpointing=True,
    fp16=True
)

# Create trainer
trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=vietnamese_dataset,
    tokenizer=tokenizer,
)

# Fine-tune
trainer.train()

📁 Model Files:

  • config.json - Cấu hình model
  • pytorch_model.bin - Trọng số model
  • tokenizer.json - Qwen2 tokenizer
  • tokenizer_config.json - Cấu hình tokenizer
  • special_tokens_map.json - Special tokens
  • generation_config.json - Tham số generation
  • modeling_hyper_mamba.py - Implementation model

⚡ Performance:

  • Speed: 4x nhanh hơn Transformer thường
  • Memory: Ít RAM hơn 35%
  • Vietnamese: Tối ưu đặc biệt cho tiếng Việt
  • Quality: Enhanced với Qwen2 tokenizer

🔧 Chi tiết kỹ thuật:

  • SSM State Size: 20
  • Convolution Kernel: 5
  • Expansion Factor: 2.0
  • Vietnamese Attention: Enabled
  • Weight Tying: Embedding ↔ LM Head

🌟 Đánh giá: ∞+1/10 🇻🇳

Được xây dựng với ❤️ cho cộng đồng AI Việt Nam!


Lưu ý: Model này được tối ưu đặc biệt cho tiếng Việt và sẵn sàng để test, fine-tune!

Downloads last month
2
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support