流
我能运行什么 (WhatCanIRun)
一个用于在本地硬件上发现、基准测试和管理开放权重语言模型的 CLI 及 Web 工具。
信号 whatcanirun · github · 2026-04-18 这是一个单体仓库项目,提供 CLI 工具和 Web 界面,用于为本地硬件执行发现、基准测试和管理开放权重语言模型。仓库包含一个 Next.js Web 应用程序,用于浏览模型兼容性和社区基准测试,以及一个 CLI 实用程序,用于运行标准化基准测试并将结果提交到中央数据库。
上下文 本地推理硬件在内存容量、架构(Apple Silicon, NVIDIA, Ascend)和后端支持(llama.cpp, MLX, vLLM)方面差异显著。操作者需要基础设施来将模型需求映射到特定设备能力,以避免部署失败。此工具通过在不同硬件配置上标准化基准数据,解决发现与验证的缺口。
相关性 此条目通过提供做出明智部署决策所需的运营数据,支持 local-inference-baseline 回路。它将模型选择从理论规格转向实证硬件性能,减少了本地 AI 基础设施设置的摩擦。工具使操作者能够维护经过验证的模型 - 运行时对的精选库。
当前状态 该项目结构为包含 Web 仪表板 ( apps/www ) 和 CLI ( apps/cli ) 的 Bun/Turborepo 单体仓库。CLI 支持基准执行、设备检查和结果提交。Web 应用程序聚合社区基准数据,并允许按设备类型筛选。代码库是开源的,专注于本地推理指标的可复现性。
开放问题 基准结果如何在不同的后端实现之间标准化(例如 llama.cpp 与 MLX)?该工具在推荐部署前是否验证模型许可合规性?集成新运行时后端(超出当前支持列表)的流程是什么?系统如何处理改变内存或计算需求的模型更新?
连接 lm-studio : 提供本地推理的桌面界面,补充本工具的发现与基准测试重点。 ollama : 作为本条目发现并基准测试的模型的兼容运行时。 local-inference-baseline : 此工具为标准化本地推理基础设施的回路贡献数据和运营模式。
译注
- Current (流): 此处
currencyType: "current"对应词汇表中的Current(s) — 流 (liú),指代生态系统中流动的信号。正文中译为“当前状态”以兼顾技术准确性,但隐含了“流态”之意。 - Circuit (回路): 词汇表中
Circuit(s) — 回路 (huí lù)强调闭环与稳定。文中local-inference-baseline circuit译为“本地推理基线回路”,保留了 Zhuangzi 中关于循环与归一的意象。 - Operator (操作者): 区别于修行者 (Practitioner),此处指基础设施的运维人员,故译为“操作者”而非“修行者”,以区分技术角色与修行角色。
- Open weights (开放权重): 对应词汇表,强调模型参数的可获取性,不同于开源 (Open source) 代码,此处特指权重文件。