转向并行 AI:拥抱 Mercury 扩散语言模型 在 Continue,我们的平台建立在一个基本信念之上:开发者需要自由选择适合他们特定工作流程的 AI 工具。正是基于这一理念,我们设计了一个开放、模块化的架构,可以在 AI 原生领域涌现新创新时快速集成这些创新
新闻通讯 Continue 新闻通讯:2025年4月更新 Continue 更新 🍊 我们在 Hacker News 上的发布引起了关于自定义 AI 代码助手的热烈讨论 🤖 我们现已记录了 Agent 模式,该模式可帮助您借助 LLM 对代码库进行更实质性的更改 🤝 我们与包括 Docker、Voyage 在内的众多生态系统合作伙伴撰写了博客文章
预飞文章:扩展关于 Google Gemini 2.5 Pro Continue 的核心价值之一始终是选择——自由选择适合工作的模型。在我写这篇文章时,我正在等一堆衣服晾干,这样我就可以打包去参加 Google Next 2025 了,所以这似乎很恰当
Continue + Stakpak:增强 DevOps 我们刚刚与 Stakpak 合作,将专业的 DevOps 功能引入 Continue,我对此感到非常兴奋。为什么?因为我以前就是做这个的。DevOps 现实:它仍然复杂很久以前,在一个遥远的
使用模型上下文协议、Docker 和 Continue Hub 简化 AI 开发 来自 Continue 和 Docker 的联合文章,探讨如何利用容器化的 MCP 块来增强您的 AI 原生开发体验 引言 随着开发者将 AI 集成到他们的工作流程中,他们面临着几个实际挑战:有限的模型上下文窗口、工具访问不足以及难以将模型连接到外部数据源。
使用 Voyage AI 改造代码搜索:为什么你的 Continue 助手需要更好的嵌入模型和重排器 随着代码库的增长,在正确的时间找到正确的信息变得越来越困难。每个花费数小时寻找几个月前编写的函数或搜索如何使用库的文档的人都深切理解这种痛苦。虽然 Continue 的默认搜索功能
在 Continue Hub 上创建规则块:开发者指南 特邀嘉宾 PromptHub 的 Dan Cleary 作为开发者,我们不断寻求方法让我们的 AI 助手更好地满足我们的特定需求。Continue 最强大但未被充分利用的功能之一是创建自定义规则块的能力,这些规则块可以在 AI 编码助手执行期间塑造其行为方式
Continue + nCompass:将 Google Gemma 3 引入您的开发工作流程 我们很高兴宣布与 nCompass 建立新的合作伙伴关系,将 Google 的尖端 Gemma 3 系列模型引入 Continue Hub!此次集成体现了我们认为的 AI 原生开发未来:通过开放的生态系统为开发者提供对最佳模型的访问权限
使用 Relace 即时应用 特邀作者 Eitan Borgnia Claude 3.7 等前沿模型正在成为令人难以置信的强大编码器,但它们也慢且昂贵。它们以约 100-200 token/秒的速度生成文本,并且每百万输出 token 的成本高达 15 美元。当你使用前沿模型来实现对
将 Ollama 和 Gemma 3 与 Continue 结合使用:开发者指南 作为开发者,我们希望工具能够尊重我们的隐私,让我们定制体验,并无缝集成到我们的工作流程中。Continue 与 Ollama 结合正是如此——一种在本地运行自定义 AI 编码助手的方式。其优势包括 1. 数据隐私:您的代码保留在您的机器上,
新闻通讯 Continue 新闻通讯:2025年3月更新 Continue 更新 🚀 我们发布了 Continue 1.0,其中包括新闻稿和 TechCrunch 的报道 ⏩ Continue Hub 让创建、共享和使用自定义 AI 代码助手变得容易 代码 x AI 更新 🌀 《我们所知的编程的终结》一文认为,AI 增强的开发不是
新闻通讯 Continue 新闻通讯:2025年2月更新 Continue 1.0 发布 🎉 这不是我们通常的每月新闻通讯,而是对我们上周发布的总结 AP 新闻稿:Continue 发布 1.0,提供开源 IDE 扩展和一个赋能开发者构建和共享自定义 AI 代码助手的 Hub TechCrunch 报道,作者 Paul Sawers
精选 Continue 1.0 🥇Continue 1.0 将我们带向 AI 增强开发者工具的开放架构,使我们能够共同定制。迈向开发者被赋能而非自动化的未来的下一步。大型语言模型(LLMs)是强大的通用文本处理工具。要在编程时学习如何使用它们,你需要
立即将 Codestral 25.01 与 Continue 结合使用 当 Mistral AI 于 2024 年 5 月发布原始 Codestral 模型时,它立即成为最好的自动完成模型——一个经过代码填充训练且能够低延迟响应的大型语言模型(LLM)。这就是为什么自那时以来,它一直是我们的开发者首选推荐。而现在,六个月后
新闻通讯 Continue 新闻通讯:2025年1月更新 Continue 更新 🔒 Stacklok 推出了 CodeGate——本地开源隐私控制,可在敏感信息进入您的提示之前对其进行加密,并在建议危险依赖项时向您发出警报——并创建了如何将其与 Continue 结合使用的教程 ✏️ 中行自动完成建议得到了显著改进,这要归功于
在 SambaNova Cloud 上使用 QwenCoder2.5 32B,再也不用等待回复 我们很高兴与 SambaNova Systems 合作,在其云上推出 QwenCoder2.5 32B!去年 10 月,他们在博客上发表了关于如何将 Continue 与 Llama 3.1 405B 结合使用的文章。今天,Continue 的开发者现在可以在以下平台上体验从 QwenCoder2.5 32B 获取建议的强大功能
新闻通讯 Continue 新闻通讯:2024年12月更新 Continue 更新 📝 引入多文件编辑功能!使用 cmd+I 或 cmd+shift+I 一次选择多个文件,并在同一侧边栏中同时迭代它们,就像 Chat 一样 ✨ Chat 焕然一新:代码符号链接,“粘性”聊天输入框,自动检测的文档建议,以及更多
模型上下文协议 x Continue 上周,Anthropic 推出了模型上下文协议 (MCP),这是一个新的开放协议,旨在“实现 LLM 应用程序与外部数据源和工具之间的无缝集成”。同样在上周,Continue 也添加了对 MCP 的支持!让我们探讨一下为什么 MCP 非常适合 Continue 以及如何使用它
新闻通讯 Continue 新闻通讯:2024年11月更新 Continue 更新 🌐 新的“@web”上下文提供程序允许您引用互联网上的内容来回答问题 🖥️ 全屏模式进行了全面重新设计!您现在可以在自己的完整窗口中打开 Continue,历史记录栏显示在侧面,就像在 ChatGPT 中一样 ᝰ 我们已经发布了
即时应用 “用户体验风险” 在过去一年半的时间里,我们开发了一些用户不喜欢的特性,然后发现他们不喜欢,然后再尝试,通过这个过程,我们对什么可行、什么不可行有了更好的认识。其中最大的预测因素之一就是我所说的“用户体验
使用 Unsloth 在 30 分钟内构建自定义自动完成模型(社区文章) 这是 Sophia Parafina 在 Continue 博客上的特邀文章,她是一位曾在 Pulumi、Anaconda 和 Docker 工作的开发者布道师。Continue 是一个开源的 AI 代码助手。它是一个复合 AI 系统,使用一套模型(聊天、自动完成、嵌入等)以及
新闻通讯 Continue 新闻通讯:2024年10月更新 Continue 更新 🍊 Garry Tan(Y Combinator 总裁兼首席执行官)在 Twitter 和 LinkedIn 上公开支持 amplified.dev 运动 ▶️ Continue 的新即时应用按钮通常可以让你无需等待即可将聊天侧边栏中的建议代码导入到你的文件中!🌳 根路径上下文:该功能
保护 Continue 社区 Continue 是领先的开源 AI 代码助手,已经拥有数万用户,近 200 名贡献者,以及一个充满活力、不断壮大的社区。我们设想一个围绕 Continue 构建的产品生态系统,这也是我们将项目以 Apache 2.0 协议发布的部分原因
根路径上下文:Continue 自动完成提示中的秘密成分 如果您将“根路径”解释为计算机的根目录,请不要担心!Continue 与此无关。我们要分享的是我们收集(和缓存)自动完成上下文的策略,该策略严重依赖于根路径:从某个节点到
新闻通讯 Continue 新闻通讯:2024年9月更新 Continue 更新 🎉 我们在《Continue 1 周年生日快乐!》博客文章中回顾了第一年并展望了下一年 👴 我们支持与 Anthropic 和 DeepSeek 的提示缓存,对此我们在博客文章《为什么我们对工程团队的提示缓存感到兴奋》中进行了详细介绍 🪨 Tobias