llmfit automatically detects local hardware specs to recommend the optimal LLM version and quantizat

Requirement Breakdown📅 2026/03/12
#Developer#Fully Automatic#GitHub#Low Risk#Manual Trigger#Reusable#代码仓库#报告#本地部署#模型优化
llmfit interface displaying CPU and GPU metrics alongside a ranked list of compatible local LLMs with speed scores
一个能帮你找适合你电脑的本地模型的工具:llmfit ,一条命令告诉你你的配置能跑什么模型,跑得有多快

里面已经写好了专门给OpenClaw的技能,给龙虾即能用

它能自动检测硬件(CPU、内存、GPU等),内置200+模型数据,从质量、速度、适配度、上下文窗口四个维度评分,根据你的硬件和使用场景自动推荐综合最优的模型

支持动态量化选择,比如同一个模型有多种量化版本,自动选你的硬件能承载的最高精度版本

还支持反向查询(Plan模式),输入模型名称,反推跑这个模型需要什么硬件

llmfit相当于一个本地模型选品顾问,模型太多不知道选哪个的,可以用它扫一下,直接拿方案,省得下载后发现跑不动

#模型选择工具 #llmfit