为什么我们对面向工程团队的提示缓存感到兴奋 Anthropic 推出的提示缓存(也称为上下文缓存)紧随 DeepSeek 和 Google 等提供商的类似产品,并且最近引起了广泛关注。在 Continue,我们对它对工程团队的潜在影响特别兴奋,因为提示缓存可以显着降低成本
Continue 成立一周年快乐! 回顾 Continue 的第一年 就在一年多前,我们在 Hacker News 上推出了 Continue。自那时以来,Continue 社区已初具规模并大幅发展:* 在 VS Code 和 JetBrains 扩展中的下载量超过 30 万 * GitHub 上的星标超过 1.4 万,Discord 成员超过 5000 人,贡献者超过 140 人 * 许多
评估 AI 代码助手的框架 在与用户的数百次交流中,我们听到了许多关于他们对一个优秀的 AI 代码助手的需求。在这篇文章中,我们将分享一套标准,这些标准代表了我们发现的公司最关心的方面,尤其是在他们有了运行的经验之后
新闻通讯 Continue 新闻通讯:2024年8月更新 Continue 更新 🦙 Llama 3.1 (8b, 70b, 405b) 终于来了!它可以在 Continue 中与 Groq、Ollama、LM Studio、Together AI、Fireworks、Replicate 和其他提供商一起使用 📕 改进的 @docs 管理和索引使这一核心功能更加可靠 🧠 @codebase 检索和本地索引的升级带来了
新闻通讯 Continue 新闻通讯:2024年7月更新 Continue 更新 🐋 Continue 现在支持 Claude 3.5 Sonnet(我们新的代码编写 #1 商业 LLM)和 DeepSeek Coder v2(我们新的代码编写 #1 开源权重 LLM)🚦现在可以轻松切换不同的模型进行自动补全,并且您应该会注意到嘈杂度大幅降低
编辑器内部完全开源的 AI 代码助手 这最初是 Ollama 博客上的一篇客座文章,介绍了如何设置、探索和找出一起使用 Continue 和 Ollama 的最佳方式。Continue 使您能够使用开源 LLM 轻松地在 Visual Studio Code 和 JetBrains 内部直接创建自己的编码助手。所有
新闻通讯 Continue 新闻通讯:2024年6月更新 Continue 更新 🐝 我们与 Mistral AI 合作于五月发布了他们的最新模型 Codestral!按照此演练开始使用它,并在此阅读更多关于如何通过 Ollama 试用它的信息 🎧 我们听到了很多关于将当前打开的文件用作上下文的请求,
Codestral x Continue 我们很高兴分享,我们已与 Mistral AI 合作发布了他们的最新模型 Codestral!0:00 /0:19 1× Codestral 经过超过 80 种编程语言的训练,并专为填空和代码补全等编码任务定制。事实上,我们对 Codestral 的早期测试
新闻通讯 Continue 新闻通讯:2024年5月更新 Continue 更新 🌠 我们的开源 VS Code 和 JetBrains 扩展在 GitHub 上星标突破 1 万 🦙 Llama 3 8B 和 70B(其能力可与大得多的模型媲美)以及具有 1,000,000 token 上下文长度的 Gemini 1.5 Pro 已在 Continue 中可用 🤠 Continue 的代码库
如何衡量 AI 软件开发系统的影响 通过 AI 软件开发系统赋能您的开发者,他们可以使用它来自动化更多任务,这将改善您组织中开发者的工程成果和生活质量。例如,ML 增强的代码补全已被证明可以提高 Google 和 GitHub 的开发者生产力。下面我们将
新闻通讯 Continue 新闻通讯:2024年4月更新 Continue 更新 🔴 VS Code 中 cmd/ctrl+I 的重大改进:所有模型更好的提示、更容易撤销更改、逐个接受/拒绝、更清晰的差异等 🟡 个人使用分析!Continue 现在在本地跟踪您每天生成的 token,因此您可以按天和按
如何改进您从 LLM 获取的代码建议? Josh Collinsworth 几周前写了一篇题为“我担心我们的 Copilot 会丢下一些乘客”的文章,我一直在思考它,特别是这一段:“为什么我们应该仅仅接受 LLM 工具不仅 未能 至少给我们带来
新闻通讯 Continue 新闻通讯:2024年3月更新 Continue 更新 ❤️ 我们的开源本地 Tab 自动补全功能于二月进入 Beta 阶段 🌊 有许多新模型可以尝试,如 Gemma 7B、Mistral Large、StarCoder2 等 🌲 @rootedbox 和 @NinjaPerson24119 构建了 Postgres / 数据库上下文提供商 ✨ @theBenForce 为 Jira 问题贡献了另一个很棒的上下文提供商 🚒 JetBrains 扩展共享了大部分
新闻通讯 Continue 新闻通讯:2024年2月更新 Continue 更新 🐋 新上下文提供商:@directory 使用 RAG 查找相关文件,@problems 向 LLM 显示打开文件中的任何 lint 警告,@docs 抓取并索引文档页面 🚌 本地代码库 embeddings 已回归,支持多种 embeddings 提供商,包括 transformers.js、OpenAI、Ollama 和 Together embeddings
新闻通讯 Continue 新闻通讯:2024年1月更新 Continue 更新 🐍 不再需要 Continue Python 服务器,因此扩展现在总是立即可用 🚒 cmd/ctrl+shift+l 使您能够在 VS Code 中无需打开侧边栏即可进行快速编辑(即逐行流式传输编辑,无需并排差异)〽️ 内联上下文提供商,允许文件,
新闻通讯 Continue 新闻通讯:2023年12月更新 Continue 更新 🐥 使用 config.json 简化了模型和提供商设置体验 📗 使用 /so 自动将 Stack Overflow 搜索结果包含在 LLM 的上下文 中 🦙 使用 llamafile 作为提供商,在 Continue 中轻松运行本地开源模型 ⭐ Continue 仓库在 GitHub 上星标突破 5000
LLM 对 Python 很有帮助,但其他编程语言呢? 最近,许多人声称他们的 LLM 在编码方面是最好的。他们的主张通常基于 HumanEval 基准上的自评结果。但当您深入研究该基准时,您会发现它只包含 164 个 Python 编程问题。这让我深入探究了
我们的使命是让软件开发感觉像创作音乐 我们相信大型语言模型 (LLM) 提供了新的机会 让软件开发感觉像创作音乐。当开发者的工作感觉像在篝火旁弹奏吉他、跟着收音机唱歌或在 GarageBand 中试验节拍时,他们会表现出色——而不是在艰难地通过
代码库检索的准确性限制是什么? 为了自动确定您代码库中最重要的上下文,我们刚刚发布了 Continue 代码库检索功能的 v1 版本。您可以提出诸如“我在哪里向服务器添加一个新的端点?”、“哪些脚本用于构建此项目?”或“我在哪里”之类的问题
新闻通讯 Continue 新闻通讯:2023年11月更新 Continue 更新 🧇 JetBrains 扩展已正式发布到商店——它仍在进行 Alpha 测试,但已与 VS Code 达到完全功能对等 🔍 代码库检索现已在 VS Code 预发布版本中可用,它允许您通过 cmd+enter“与您的代码库对话”
调整 LLM 预设仍然有必要吗?温度、惩罚和采样方案的历史追溯 🧪TL;DR: 预设包含了一些旋钮,您可以在响应不符合您的期望时使用它们来塑造 LLM 的行为。当 LLM 没有那么大时,它们更必要,但如今仍然可能很重要。简介 现在,每个大型语言模型 (LLM) 大致都带有
面向软件工程师的代码 LLM 基准介绍 基准被研究人员用来评估和比较 LLM 的相对性能。尽管没有比亲自尝试 LLM 并在编码时找出最适合您的 LLM 更好的替代方法,但基准和受欢迎度排名可以帮助确定哪些 LLM 值得尝试。截至十月
如何为您的开发团队部署一个开源代码 LLM 为您的团队正确部署开源代码 LLM 可能很困难。您需要:* 找到一种足够私密和安全的部署方法 * 在需要时始终获得所需的 GPU * 确保您选择的 LLM 在这些 GPU 上可靠地工作 * 在保持
精选 使用哪种 LLM?来自 DevAI 领域的视角 鉴于 DevAI 领域(大型语言模型 (LLM) 帮助开发者构建软件的社区简称)事物发展如此之快,弄清楚使用哪种模型可能具有挑战性。我们根据作为一部分的经验创建了这个仓库