加密知识一站通
行情·工具·策略

20B小模型搜索能力追平GPT-5和Opus:向量数据库Chroma开源Agent搜索模型Context-1

1M AI News 监测,开源向量数据库 Chroma 发布 Context-1,一个 200 亿参数的智能体搜索模型,专门用于多轮检索任务。模型权重以 Apache 2.0 协议开源,合成数据生成管线代码同步公开。

Context-1 的定位是检索子代理(retrieval subagent):它不直接回答问题,而是通过多轮搜索为下游推理模型返回一组支撑文档。核心技术是「自编辑上下文」(self-editing context),即模型在搜索过程中主动丢弃不相关的文档片段,在有限的上下文窗口内为后续搜索腾出空间,避免上下文膨胀导致的性能退化。

训练分两阶段:先用 Kimi K2.5 等大模型生成 SFT 轨迹做监督微调热身,再通过强化学习(基于 CISPO 算法)在 8000 多个合成任务上训练。奖励设计采用课程机制,早期重召回鼓励广泛探索,后期逐步转向精确度鼓励选择性保留。基座模型为 gpt-oss-20b,使用 LoRA 适配,推理时以 MXFP4 量化在 B200 上运行,吞吐量达 400-500 token/s。

在 Chroma 自建的四个领域基准(网页、金融、法律、邮件)和公开基准(BrowseComp-Plus、SealQA、FRAMES、HotpotQA)上,Context-1 的 4 路并行版本在「最终答案命中率」指标上与 GPT-5.2、Opus 4.5、Sonnet 4.5 等前沿模型持平或接近,例如在 BrowseComp-Plus 上达到 0.96(Opus 4.5 为 0.87,GPT-5.2 为 0.82),而成本和延迟仅为后者的几分之一。值得注意的是,该模型仅在网页、法律和金融数据上训练,但在未参与训练的邮件领域同样表现出显著提升,显示搜索能力的跨领域迁移性。

赞(0)
未经允许不得转载:币须知道 » 20B小模型搜索能力追平GPT-5和Opus:向量数据库Chroma开源Agent搜索模型Context-1

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址