向并行 AI 转变:拥抱 Mercury Diffusion 语言模型 在 Continue,我们平台建立在一个基本信念之上:开发者需要自由选择适合其特定工作流程的 AI 工具。正是这一理念促使我们设计了一个开放、模块化的架构,以便在 AI 原生领域涌现新创新时能够快速集成。
一篇预热文章:进一步探讨 Google Gemini 2.5 Pro Continue 的核心价值观之一始终是选择的自由——为工作选择合适的模型的自由。在我写下这些文字的时候,我正在等一堆衣服烘干,这样我就可以打包去参加 Google Next 2025 了,所以这似乎是一个恰当的时刻。
Continue + Stakpak:增强 DevOps 我们刚刚与 Stakpak 合作,将专门的 DevOps 功能引入 Continue,对此我感到非常兴奋。为什么?因为我曾经以此为生。DevOps 的现实:依然复杂很久以前,在一个遥远遥远的星系里,
使用 Model Context Protocol、Docker 和 Continue Hub 简化 AI 开发 一篇来自 Continue 和 Docker 的联合文章,探讨如何利用容器化的 MCP 块来增强您的 AI 原生开发体验。介绍随着开发者将 AI 集成到他们的工作流程中,他们面临几个实际挑战:有限的模型上下文窗口、不足的工具访问以及难以将模型连接到外部数据源。
使用 Voyage AI 改造代码搜索:为什么您的 Continue 助手需要更好的嵌入模型和重排序器 随着您的代码库不断增长,在正确的时间找到正确的信息变得越来越困难。每个花数小时寻找几个月前编写的函数,或者搜索如何使用某个库的文档的人,都深切理解这种痛苦。虽然 Continue 的默认搜索功能
在 Continue Hub 上创建规则块:开发者指南 与 PromptHub 的特邀嘉宾 Dan Cleary 一起,作为开发者,我们不断寻求使我们的 AI 助手更好地满足我们特定需求的方法。Continue 最强大但未被充分利用的功能之一是创建自定义规则块的能力,这些规则块可以在您的 AI 编码助手进行
Continue + nCompass:将 Google Gemma 3 引入您的开发工作流程 我们很高兴地宣布与 nCompass 建立新的合作关系,将 Google 最前沿的 Gemma 3 系列模型引入 Continue Hub!这一集成体现了我们对 AI 原生开发未来的信念:通过开放的生态系统让开发者能够访问最佳模型
使用 Relace 进行即时应用 特邀作者 Eitan Borgnia 前沿模型如 Claude 3.7 正在变得难以置信地强大,但它们也很慢且昂贵。它们生成文本的速度约为 100-200 tokens/秒,每百万输出 token 的成本可能高达 15 美元以上。当您使用前沿模型来实现
使用 Ollama 和 Gemma 3 结合 Continue:开发者指南 作为开发者,我们希望工具能够尊重我们的隐私,允许我们自定义体验,并无缝集成到我们的工作流程中。Continue 与 Ollama 结合恰好提供了这一点——一种在本地运行自定义 AI 编码助手的方式。这样做的好处包括:1. 数据隐私:您的代码保留在您的机器上,