CanIRun.ai:一秒检测你的电脑能不能跑本地大模型(2026最新神器推荐)
CanIRun.ai:一秒检测你的电脑能不能跑本地大模型(2026最新神器)
大家好!2026年本地跑大模型(Local LLM)已经彻底火起来了。从 Llama 3.3、Qwen 3.5、Gemma 3、DeepSeek V3.2 到各种 MoE 巨兽,大家都想在自己电脑上离线写代码、做 RAG、私人知识库、跑工具调用……
但最头疼的问题永远是那句:「我这台机器到底能不能跑这个模型?跑得动多快?」
以前要么自己硬下模型试,要么对着 llama.cpp 的表格算半天。现在终于有了一个超级方便的网页工具——CanIRun.ai,打开浏览器就能直接测!
CanIRun.ai 到底是什么?
一句话总结:纯浏览器检测硬件 → 告诉你当前所有主流开源大模型能不能在你机器上跑 + 跑得好不好。
核心亮点:
- 无需安装任何软件,打开网页自动检测(基于 WebGPU + 浏览器 API)
- 数据完全在本地计算,不上传服务器,隐私很友好
- 覆盖当下几乎所有热门模型家族
- 给出直观的 S/A/B/C/D/F 六级评分 + 内存占用百分比
目前支持的主要模型家族(2026年3月最新)
| 模型家族 | 代表模型 & 规模 | 最大参数 |
|---|---|---|
| Llama | Llama 3.1/3.2/3.3、Llama 4 Scout | 405B |
| Qwen | Qwen 3 / 3.5、Qwen 2.5 Coder | 397B (MoE) |
| Gemma | Gemma 3 | 27B |
| Mistral / Mixtral | Mistral Small 3.1、Mixtral 8x22B | 141B (MoE) |
| Phi | Phi-4 | 14B |
| DeepSeek | DeepSeek R1 / V3.2、R1 Distill | 685B (MoE) |
| 其他巨兽 | GPT-OSS、Devstral 2、Kimi K2 | 1T (MoE) |
从 1B 边缘模型到 1T 参数的怪物都有,基本把 Ollama / LM Studio 热门榜单全覆盖了。
实际使用体验(我试过的几台机器)
- MacBook M2 16GB 统一内存 → 8B~14B 大多 B~C 级,27B+ 基本 D/F
- RTX 4070 12GB + 32GB RAM → 很多 27B~34B 能到 A/B,70B Q4_K_M 基本 C~D
- 老核显笔记本 8GB 内存 → 只能玩 1B~3B 小模型,7B 已经很吃力
注意:因为是浏览器估算,实际 tokens/s 会有些误差,尤其是最新显卡(50系、Strix Halo 等)可能偏保守。但作为「先筛一遍」的工具,已经非常好用了!
最实用的 Tier List 页面
直接访问 https://www.canirun.ai/tier,它会自动生成你的专属六级排行榜(S→F),复制图片发朋友圈/群聊超有排面~
谁最应该收藏 CanIRun.ai?
- 刚入门本地 AI,不知道买/升级什么配置的新手
- 天天刷 Ollama 库、Hugging Face,想快速知道新模型值不值得下
- 准备攒新电脑或加内存/换显卡,想一步到位跑大模型
- 做本地 RAG、代码助手、隐私向 AI 项目的开发者
小Tips & 注意事项
- 优先看 Q4_K_M 或 Q5_K_M 的评级 —— 目前质量与体积平衡最好
- Apple Silicon 用户:统一内存算法较严格(只用约52.5%),估算会比 Windows/Linux 保守
- 新手强烈建议先读官网 Docs,几分钟搞懂参数、量化、VRAM 等基础概念
一句话总结
CanIRun.ai 是 2026 年本地大模型玩家必加书签的网页工具:零安装、秒开、覆盖广、结果直观,彻底解决「这个模型我机器行不行」的纠结。
快去测测你的机器能跑多大模型吧!
欢迎在下面评论区晒出你的 Tier List 等级~ S级大佬低调点,F级兄弟别难过,我们一起攒钱升级!
标签: #本地大模型 #LLM #Ollama #LMStudio #AI硬件 #CanIRun.ai #开源AI #WebGPU
评论