神奇网站CanIRun.ai:5秒检测你的电脑能跑哪些本地大模型

CanIRun.ai 是一款免费的浏览器端 AI 模型兼容性检测工具,由开发者 midudev 构建。该工具无需下载安装、无需注册账号,打开网页即可自动检测你的硬件配置,并告诉你能运行哪些本地大模型(包括 Llama、Qwen、DeepSeek 等主流开源模型)。

想在自己的电脑上跑 DeepSeek、Qwen 或 Llama 大模型,却不知道显存够不够?内存够不够?能不能带得动?以前你可能得去翻评测帖子、查显卡参数表,甚至自己搜半天。

现在有了 CanIRun.ai,打开网页就能直接告诉你答案。

这个工具解决什么问题?

很多人想尝试本地部署 AI 大模型,但面临一个很实在的问题:我电脑到底能不能跑?

  • 我的显卡是 RTX 3060,显存 8GB,能跑 7B 模型吗?14B 呢?
  • 我的 MacBook M3 芯片内存 24GB,能跑什么级别的模型?
  • 我的 CPU 集显 + 16GB 内存,有没有能跑的模型?

CanIRun.ai 就是来解决这个痛点的——在下载任何模型之前,先帮你做个硬件摸底,让你知道自己的上限在哪里。

核心功能一览

浏览器内一键硬件检测

无需下载任何软件,无需注册账号,打开 canirun.ai 就开始自动检测。页面直接显示你的:

  • GPU 型号和算力
  • 显存(VRAM)大小
  • 内存(RAM)大小
  • CPU 核心数

💡 提示:检测结果基于浏览器 API 估算,与实际性能会存在一定偏差,但用作初步判断已经足够。

模型兼容性评级

根据你的硬件,给你推荐能跑的模型,并标注运行体验等级:

等级 含义
🟢 Runs great 流畅运行,体验极佳
🟡 Runs well 可以跑,效果不错
🟠 Decent 能跑,但稍显吃力
🔴 Tight fit 勉强能跑,不推荐
⚫ Barely runs 基本跑不动

按任务类型筛选模型

页面支持按任务类型过滤你想找的模型:

  • 💬 Chat — 对话助手类(DeepSeek-chat、Qwen 等)
  • 💻 Code — 代码生成类(CodeLlama、Codestral 等)
  • 🧠 Reasoning — 推理思考类(DeepSeek-R1 等)
  • 👁️ Vision — 视觉多模态类(视觉模型)

按厂商和协议过滤

你还可以按模型提供商(DeepSeek、Qwen、Meta、Google、Mistral 等)和开源协议(Apache 2.0、MIT、CC BY-NC 等)进行精细筛选,快速找到适合自己条件的开源模型。

适合哪些人用?

  • 想尝试本地 AI 的新手:下载模型之前先来这里测一下硬件
  • 开发者:评估不同模型的硬件需求,辅助选型
  • 折腾本地部署的玩家:快速了解自己机器的上限,规划模型大小

需要注意的边界

虽然 CanIRun.ai 非常方便,但它给出的只是估算值,实际运行效果还受以下因素影响:

  • 量化精度(INT4 / INT8 / FP16)
  • 推理框架(llama.cpp、vLLM、Ollama)
  • 驱动版本
  • 系统后台占用
  • 上下文长度设置

因此,最终能不能跑得动,还是建议实际跑一下再看,但 CanIRun.ai 能帮你省掉很多不必要的下载和试错。

关键要点

📌 用 CanIRun.ai 之前,你需要知道的三件事:

  1. 零门槛:无需注册,打开即用,所有检测在浏览器本地完成,不上传你的数据
  2. 仅作参考:结果基于浏览器 API 估算,实际性能受量化精度和推理框架影响较大
  3. 适用场景:在下载几 GB 的模型文件之前做初步筛选,不是最终部署依据

总结

CanIRun.ai 是一个零门槛、免费、无需安装的本地 AI 模型兼容性检测工具。打开网页,5 秒出结果,让你在下载几 GB 的模型文件之前,就能心里有数。

强烈推荐给任何想玩本地大模型但不知道从哪开始的朋友。

👉 立即体验:https://www.canirun.ai/