把本地模型、微调任务和安全沙盒收口到一个独立模块里,不再依赖旧代理服务,也不再把路由和页面散在插件旧目录里。
先看服务状态,再做拉取、测试和启动动作。这里直接走模块自己的 `/api/ai-hub/*`,不再混用旧 `/ai-model/api`。
用已经连接的 Ollama 模型做快速文本回显,便于确认模型是否真能工作。
| 模型 | 来源 | 大小 | 量化 |
|---|---|---|---|
| 正在加载模型列表… | |||
扫描模块默认模型目录,快速确认 `.gguf` 或 HuggingFace 模型目录是否就绪。
| 模型 | 格式 | 大小 | 状态 |
|---|---|---|---|
| 暂无扫描结果 | |||
这里先收口任务配置和状态管理。真正训练是否能跑,取决于 Python 与 Unsloth 环境是否完备。
微调服务默认按“先模块化、再环境增强”的顺序落地。环境不齐时会明确告诉你未就绪,而不是悄悄走旧脚本代理。
| 名称 | 基础模型 | 状态 | 进度 | 操作 |
|---|---|---|---|---|
| 暂无训练任务 | ||||