Claude Code là một trong những coding agent mạnh nhất hiện tại.
Nhưng có một vấn đề:
Bạn gần như phải trả tiền để dùng nó.
Vậy nếu mình nói với bạn rằng:
Bạn có thể dùng Claude Code gần như miễn phí bằng OpenRouter, Ollama?
Bài viết này sẽ hướng dẫn bạn cách làm điều đó – theo đúng cách dev thực chiến đang dùng.
Claude Code mặc định gọi API của Anthropic.
Khi bạn set lại:
Bạn đang “đánh lừa” Claude Code để nó gọi sang OpenRouter thay vì server gốc.
Nói cách khác: bạn không hack, bạn chỉ đổi gateway.
Claude Code là công cụ AI coding do Anthropic phát triển, chạy trực tiếp trong terminal của bạn. Thay vì chat trong browser, Claude Code hiểu toàn bộ codebase của bạn — đọc file, viết code, chạy lệnh, commit git, debug lỗi — tất cả ngay trong terminal mà không cần copy-paste qua lại.
Những việc Claude Code làm được:
OpenRouter là một API gateway tổng hợp — một endpoint duy nhất để gọi đến hơn 300 model AI từ Anthropic, Google, Meta, Mistral, DeepSeek và nhiều nhà cung cấp khác. Điểm hay: có free tier với giới hạn hợp lý cho developer cá nhân.
Luồng hoạt động đơn giản như sau:
Claude Code → OpenRouter API → Model bạn chọn
Ollama là một công cụ mạnh mẽ nhưng thân thiện với người dùng, được thiết kế để đơn giản hóa đáng kể quy trình tải xuống, cấu hình và chạy các LLM (Large Language Model) tiên tiến như Llama 3, Mistral, Gemma, Phi và nhiều mô hình khác ngay tại máy tính của bạn.
Nói đơn giản: Ollama = Docker, nhưng dành cho AI. Với Ollama, mọi thứ cần để chạy một LLM — weight của mô hình và tất cả các cấu hình — đều được đóng gói vào một file Modelfile duy nhất, tương tự như cách Docker hoạt động với container.
Đăng ký tại openrouter.ai, vào phần Keys và tạo API key mới. Miễn phí, không cần credit card.
Hướng dẫn cài đặt claude code. Nếu chưa có, chạy lệnh sau trong terminal:
curl -fsSL https://claude.ai/install.sh | bash
Mở file ~/.claude/settings.json và dán nội dung sau vào:
{
"env": {
"ANTHROPIC_BASE_URL": "https://openrouter.ai/api",
"ANTHROPIC_AUTH_TOKEN": "sk-or-v1-YOUR_KEY_HERE",
"ANTHROPIC_API_KEY": "",
"ANTHROPIC_MODEL": "qwen/qwen3-coder-480b-a35b-instruct:free"
}
}
Từ giờ chỉ cần gõ claude trong terminal là xong. Không cần export env, không cần flag gì thêm.
Bạn muốn cấu hình claude code the từng dự án. Tạo file .claude/settings.local.json trong thư mục gốc của dự án và dán nội dung sau vào
{
"env": {
"ANTHROPIC_BASE_URL": "https://openrouter.ai/api",
"ANTHROPIC_AUTH_TOKEN": "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",
"ANTHROPIC_API_KEY": "",
"ANTHROPIC_MODEL": "minimax/minimax-m2.5:free"
}
}
Để chạy claude code theo từng dự án, không bắt login tài khoản claude ai cần xoá config global đi
rm -rf ~/.claude
Sau đó chạy claude như bình thường ở thư mục gốc của dự án.
Hướng dẫn cài đặt ollama chạy command
curl -fsSL https://ollama.com/install.sh | sh
Cài đặt model bạn muốn sử dụng với Ollama, có thể chạy bạn local chạy offline trực tiếp trên máy, hoặc bản cloud. Muốn chạy local thì máy tính của bạn phải cấu hình cao và có đủ dung lượng, không thì có thể chạy qua cloud của ollama.
// Cài bản cloud
ollama launch claude --model qwen3-coder:480b-cloud
// Cài bản local
ollama launch claude --model qwen3-coder
Cấu hình claude code chạy model tuỳ ý không mấy phí với Ollama có project của bạn. Tạo file .claude/settings.local.json trong thư mục gốc của dự án và dán nội dung sau vào
{
"env": {
"ANTHROPIC_BASE_URL": "http://localhost:11434",
"ANTHROPIC_AUTH_TOKEN": "ollama",
"ANTHROPIC_API_KEY": "",
"ANTHROPIC_MODEL": "qwen3-coder:480b-cloud"
}
}
Chạy claude code từ thư mục gốc của dựa án, giờ claude code đã dùng model bạn cài đặt từ Ollama.
claude
Mac M1 16G Ram dùng model này
ollama launch claude --model qwen2.5-coder:14b
⚠️ Tip bảo mật: Đừng commit file này lên Git. Thêm ~/.claude/ vào global gitignore của bạn.
Danh sách đã test thực tế với Claude Code — không phải benchmark lab, mà là coding thật hàng ngày:
| Model | Loại | Tốt cho |
|---|---|---|
qwen/qwen3-coder-480b-a35b-instruct:free |
Miễn phí | Coding đa năng, context 262K, tốt nhất free tier hiện tại |
deepseek/deepseek-r1:free |
Miễn phí | Debug khó, reasoning phức tạp, có thinking mode |
meta-llama/llama-3.3-70b-instruct:free |
Miễn phí | Explain code, refactor nhẹ, ổn định |
deepseek/deepseek-v3 |
Trả phí nhẹ (~$0.28/1M tokens) | Chất lượng cao, chi phí thực tế dưới $2/tháng nếu dùng hợp lý |
anthropic/claude-sonnet-4-5 |
Trả phí | Khi cần chất lượng tuyệt đối, giá bằng Anthropic trực tiếp |
⚠️ Lưu ý về free tier: OpenRouter giới hạn 200 requests/ngày và 20 req/phút cho model free. Đủ dùng cho cá nhân, nhưng nếu dùng Claude Code chạy liên tục thì có thể hết quota. Giải pháp: kết hợp với Ollama local làm fallback.
Giờ chúng ta đã có thể dùng claude code miễn phí, có phí, tuỳ ý thích. Đây là workflow hiệu quả nhất:
Viết boilerplate, giải thích code, format, tạo test case — qwen3-coder-480b:free xử lý ngon 90% trường hợp này. Không tốn xu nào.
Multi-file refactoring, architecture design, debug lỗi khó — dùng deepseek/deepseek-v3. Chi phí thực tế mỗi task phức tạp dưới $0.01. Trong một tháng coding nặng tổng cộng tốn chưa đến $2.
Code liên quan đến credentials, business logic riêng tư, hoặc khi mất mạng — switch sang Ollama với qwen2.5-coder:14b chạy hoàn toàn local, không gửi data ra ngoài.
Thêm các alias này vào ~/.zshrc để switch ngay trong terminal mà không cần nhớ lệnh dài:
alias cc='claude'
alias cc-free='ANTHROPIC_MODEL="qwen/qwen3-coder-480b-a35b-instruct:free" claude'
alias cc-deep='ANTHROPIC_MODEL="deepseek/deepseek-v3" claude'
alias cc-local='ANTHROPIC_BASE_URL="http://localhost:11434" \
ANTHROPIC_AUTH_TOKEN="ollama" \
ANTHROPIC_API_KEY="" \
ANTHROPIC_MODEL="qwen2.5-coder:14b" claude'
Sau đó chạy source ~/.zshrc để áp dụng. Từ đây chỉ cần gõ cc-free, cc-deep, hoặc cc-local tùy task.
OpenRouter, Ollama là cách tốt nhất để dùng Claude Code miễn phí hoặc gần miễn phí. Setup một lần trong 5 phút, sau đó quên đi và chỉ tập trung vào code.
Nếu bạn dùng M1 Mac, kết hợp thêm Ollama local sẽ cho workflow hoàn hảo: OpenRouter cho cloud model chất lượng cao, Ollama cho offline và code private.
Nếu bạn đang build:
Hãy comment hoặc inbox, mình có thể chia sẻ thêm workflow thực chiến.