据 1M AI News 监测,美国 AI 模型公司 Arcee 发布 Trinity-Large-Thinking,一款面向长时间 Agent 任务的开源推理模型。模型采用稀疏混合专家(MoE)架构,总参数 400B,激活参数仅 13B,以 Apache 2.0 许可证在 Hugging Face 开放权重下载。
与前代 Trinity-Large-Preview(纯指令微调)不同,Trinity-Large-Thinking 在回答前先执行推理思考,多轮工具调用、长上下文连贯性和指令遵循能力均有提升,核心设计目标是在长时间 Agent 循环中保持稳定输出。
在 Kilo 开发的 Agent 能力基准 PinchBench 上得分 91.9,排名第二,仅次于 Opus 4.6 的 93.3;在 Agent 任务基准 Tau2-Airline 上得分 88.0,为所有对比模型中最高。不过通用推理基准表现一般:GPQA-D 得分 76.3,低于 Kimi-K2.5(86.9)和 Opus 4.6(89.2);MMLU-Pro 得分 83.4,同样排在末位。据 Arcee 官方表述,该模型在「许多维度上是中国以外最强的开源模型」。
Arcee API 定价为输出 $0.90/百万 token,据 Arcee 称较 Opus 4.6 便宜约 96%。模型同步上线 AI 模型路由平台 OpenRouter,前 5 天在 OpenClaw 中免费使用。前代 Preview 自 1 月底发布以来在 OpenRouter 上已服务超过 3.37 万亿 token,是 OpenClaw 收录的美国使用量第一、全球第四的开源模型,Preview 将继续在 OpenRouter 免费提供。
币须知道