模型中心

把本地模型、微调任务和安全沙盒收口到一个独立模块里,不再依赖旧代理服务,也不再把路由和页面散在插件旧目录里。

-Ollama 状态
-vLLM 状态
0训练任务数量
-沙盒状态
页面路由/ai-hub
模块闭环
API 前缀/api/ai-hub/*
已统一
主能力本地模型 / 微调 / 沙盒
检查中

Ollama 与 vLLM

先看服务状态,再做拉取、测试和启动动作。这里直接走模块自己的 `/api/ai-hub/*`,不再混用旧 `/ai-model/api`。

模型测试

用已经连接的 Ollama 模型做快速文本回显,便于确认模型是否真能工作。

等待运行…

在线模型列表

模型来源大小量化
正在加载模型列表…

本地模型扫描

扫描模块默认模型目录,快速确认 `.gguf` 或 HuggingFace 模型目录是否就绪。

模型格式大小状态
暂无扫描结果

创建训练任务

这里先收口任务配置和状态管理。真正训练是否能跑,取决于 Python 与 Unsloth 环境是否完备。

训练环境提醒

微调服务默认按“先模块化、再环境增强”的顺序落地。环境不齐时会明确告诉你未就绪,而不是悄悄走旧脚本代理。

等待载入训练状态…

训练任务列表

名称基础模型状态进度操作
暂无训练任务

代码安全分析

分析结果

等待分析…

沙盒配置