Decentralization? We're still early!

Goose AI:由 Block 推出的开源、可扩展自主 AI Agent 框架

  • Goose AI:由 Block 推出的开源、可扩展自主 AI Agent 框架

    發布人 Brave 2026-02-05 09:00

    Goose 是一款由 Block(前身为 Square,由 Jack Dorsey 创立)推出的开源 AI Agent 框架。它不仅是一个简单的代码助手,更是一个能够在本地运行、具备自主行动能力的智能体,旨在通过自动化复杂的工程任务来提升开发效率。

    Block 公司背景补充:Block 是一家综合性金融科技公司,旗下拥有 Square(商户支付)、Cash App(个人金融)、Afterpay(先买后付)和 TIDAL(音乐流媒体)等知名产品。Goose 的诞生源于 Block 内部对 AI 赋能开发效率的深度探索,由一支约 12 人的专业团队历时 9 个月与 Anthropic 密切合==作开发完成。

    🏆 里程碑事件:2025 年 12 月,Linux 基金会宣布成立「Agentic AI 基金会」(AAIF),Goose 与 Anthropic 的 Model Context Protocol (MCP) 以及 OpenAI 的 AGENTS.md 一同成为创始项目。该基金会的白金会员包括 Amazon Web Services、Anthropic、Block、Bloomberg、Cloudflare、Google、Microsoft 和 OpenAI,标志着 Goose 已跻身行业标准级开源项目行列。

    以下是关于 Goose AI Agent 的详细介绍:


    1. 核心定位:从"代码补全"到"自主执行"

    与传统的 AI 编程助手(如 GitHub Copilot)主要侧重于代码建议不同,Goose 定位于自主执行。

    📌 传统 AI 编程助手 vs Goose 的本质区别

    对比维度传统 AI 助手(如 Copilot)Goose AI Agent
    核心功能代码补全、建议端到端自主执行
    工作模式被动响应用户输入主动规划、执行、迭代
    运行环境云端处理本地优先(Local-First)
    执行能力仅生成代码文本可执行代码、运行命令、操作文件
    上下文范围当前文件或项目整个系统环境 + 外部工具集成

    ⚡ 端到端自动化能力

    Goose 的自主执行能力体现在以下几个方面:

    • 📂 从零构建项目:它可以从一个想法出发,自动创建项目结构、选择技术栈、编写完整的前后端代码
    • 🔧 代码编写与执行:不仅能生成代码,还能直接在本地环境中运行代码并观察结果
    • 🐛 智能调试:遇到错误时,Goose 能够阅读错误日志、分析问题根因、自动修复并重新测试
    • 🔄 工作流编排:可以协调多个任务的执行顺序,管理复杂的依赖关系
    • 🌐 外部 API 交互:能够自主调用外部服务和 API,完成数据获取、推送等操作

    实际案例:Block 工程师反馈,Goose 能够自主处理一些通常需要数天才能完成的任务,例如在大型代码库中进行跨文件重构、自动化配置 CI/CD 流水线、批量迁移数据库 schema 等。

    🏠 本地运行的核心优势

    Goose 在用户的本地机器上运行,这一设计带来了三重价值:

    1. 隐私保障:敏感代码和数据无需上传到第三方云服务器,这对金融、医疗、政府等对数据安全要求严格的行业尤为重要
    2. 环境控制:直接访问本地文件系统、数据库、开发工具,无需复杂的云端配置
    3. 网络独立支持完全离线运行(配合本地模型如 Ollama),即使在网络受限环境下也能正常工作

    💡 Block 官方强调:"我们在 Goose 使用过程中绝对没有任何中间服务器调用——没有向我们服务器的请求。作为一家对用户数据极度关注的金融公司,这也是我们对开源模型如此感兴趣的原因之一:与其将我们的数据或用户数据通过互联网传输(这会带来很多风险),我们更倾向于将模型部署到数据所在的位置。"


    2. 关键技术特性

    🔗 开放与互操作性:基于 MCP 协议的生态连接

    Goose 基于 Model Context Protocol (MCP) 构建。MCP 是由 Anthropic 开发(Block 工程师参与贡献)的开源协议,旨在成为 AI Agent 与外部工具连接的通用标准。

    MCP 协议的核心价值

    ┌─────────────────────────────────────────────────────────────────┐
    │                        Goose Agent                               │
    │                           ↕                                      │
    │                    MCP 协议层(标准化接口)                        │
    │                           ↕                                      │
    │  ┌─────────┬─────────┬─────────┬─────────┬─────────┐           │
    │  │ GitHub  │  Jira   │  Slack  │ Google  │ Docker  │  ...      │
    │  │  MCP    │  MCP    │  MCP    │  Drive  │  MCP    │           │
    │  │ Server  │ Server  │ Server  │  MCP    │ Server  │           │
    │  └─────────┴─────────┴─────────┴─────────┴─────────┘           │
    └─────────────────────────────────────────────────────────────────┘

    MCP 生态系统现状

    截至 2025 年底,MCP 生态已发展为行业事实标准:

    统计指标数据
    📦 已发布的 MCP Server 数量超过 10,000 个
    🛠️ 覆盖的工具类别开发工具、生产力套件、企业服务等
    🏢 采用范围从开发者工具到财富 500 强企业部署

    常见 MCP Server 集成示例

    类别支持的工具/服务
    🔧 开发工具GitHub、GitLab、VS Code、Docker、Kubernetes
    📊 项目管理Jira、Asana、Linear、Trello
    💬 沟通协作Slack、Microsoft Teams、Discord
    📁 文档存储Google Drive、Notion、Confluence
    🗄️ 数据库PostgreSQL、MongoDB、Redis

    MCP 作为扩展系统的优势

    Goose 将 MCP 作为其核心扩展机制,这意味着:

    • 互操作性:为 Goose 构建的扩展同样适用于其他 MCP 兼容客户端(如 Claude Desktop、Cursor、Cline)
    • 标准化:统一的 API 规范降低了集成成本
    • 安全性:Block 信息安全团队深度参与 MCP Server 的安全设计
    • 生态访问:可直接利用社区已有的数千个 MCP Server
    • 面向未来:随着 MCP 生态扩展,Goose 的能力边界持续扩大

    🧠 模型无关性:灵活的 LLM 选择

    Goose 不绑定于特定模型,支持多种大语言模型(LLM),项目现已支持超过 25 个 LLM 提供商,开发者可以根据成本和性能需求自由切换。

    支持的模型提供商

    类别提供商/模型
    ☁️ 商业云服务OpenAI (GPT-4o, o1)、Anthropic (Claude 3.5/4)、Google (Gemini)、xAI (Grok)
    🏢 企业云平台Azure OpenAI、AWS Bedrock、Google Vertex AI
    🏠 本地运行Ollama、LM Studio、LocalAI
    🔓 开源模型Llama、Mistral、Qwen、DeepSeek

    多模型配置能力

    Goose 支持在同一工作流中配置多个模型,实现成本与性能的最优平衡:

    # 示例:多模型配置策略
    models:
      planning:
        provider: anthropic
        model: claude-sonnet-4
        # 用于任务规划,需要较强推理能力
    
      coding:
        provider: openai
        model: gpt-4o
        # 用于代码生成,性价比高
    
      review:
        provider: ollama
        model: qwen2.5:32b
        # 用于代码审查,本地运行保护隐私

    💡 实践建议:对于注重隐私的场景,可以使用 Ollama 运行本地模型(如 Qwen 2.5、Llama 3);对于需要顶级推理能力的复杂任务,可以切换到 Claude 或 GPT-4o。


    📋 扩展性(Recipes):可复用的自动化工作流

    通过"食谱(Recipes)"功能,用户可以定义可复用的自动化工作流,实现团队间的标准流程共享。

    Recipes 的本质

    Recipes 是结构化的工作流定义文件,它将系统提示词、初始指令、所需扩展(MCP Servers)、参数变量以及子食谱整合在一起,形成一个完整的、可分享的自动化配置包。

    Recipe 文件结构

    # 示例:代码审查 Recipe
    name: code-review
    description: 自动化代码审查工作流
    
    settings:
      goose_provider: anthropic
      goose_model: claude-sonnet-4
      temperature: 0.3  # 低温度用于精确的代码分析
    
    instructions: |
      你是一位资深代码审查专家。请对提供的代码进行全面审查,
      关注:代码质量、潜在 bug、性能问题、安全漏洞、最佳实践。
    
    extensions:
      - github-mcp-server
      - code-analysis-mcp
    
    parameters:
      - name: repo_url
        description: 待审查的仓库地址
      - name: branch
        description: 待审查的分支名称
        default: main
    
    sub_recipes:
      - security-scan
      - performance-analysis

    Temperature 参数指南

    温度范围适用场景示例任务
    🎯 0.0 - 0.3精确任务代码生成、数据分析、结构化输出
    ⚖️ 0.4 - 0.7平衡任务文档编写、代码解释、审查报告
    🎨 0.8 - 1.0创意任务头脑风暴、创意写作、方案探索

    Sub-Recipes:子食谱架构

    子食谱架构通过严格的关注点分离解决了复杂工作流中的常见问题:

    • 🚫 避免上下文混淆
    • 🚫 避免输出不一致
    • 🚫 避免调试困难
    • 🚫 避免维护困难
    ┌─────────────────────────────────────────────────┐
    │              主 Recipe(协调者)                  │
    │    负责:工作流编排、数据传递、结果整合            │
    │                      ↓                          │
    │  ┌──────────┬──────────┬──────────┐            │
    │  │ Sub-Recipe│ Sub-Recipe│ Sub-Recipe│           │
    │  │ 安全扫描  │ 性能分析  │ 代码风格  │            │
    │  └──────────┴──────────┴──────────┘            │
    └─────────────────────────────────────────────────┘

    智能 Cookbook 生成器

    Goose 提供了一个「Cookbook 生成器」功能——这是一种元编程能力:它可以分析你过去的工作会话,识别常见模式,并自动为你创建新的 Recipes。

    这代表了 AI 辅助生产力的新层次:不再需要手动识别自动化机会,AI 会为你识别它们。就像拥有一个永不休息的生产力顾问,可以随时分析你的工作模式并建议自动化方案。

    Recipe 的核心价值

    价值维度具体收益
    ⏱️ 节省时间将 30 分钟的重复任务变成一条命令
    📏 保证一致性确保每次都遵循相同的流程标准
    🤝 知识共享捕获最佳实践,让团队成员都能访问
    🔄 流程自动化构建组合多个步骤的复杂工作流

    👥 多智能体协作:Agent 协调模式

    Goose 支持子智能体(Sub-agents)模式,可以编排一个由规划者、架构师、开发人员和测试员组成的"AI 团队"来并行处理复杂任务。

    三种 Agent 协调模式

    Goose 官方文档定义了三种核心的 Agent 协调模式,适用于不同复杂度的任务:

    模式定义适用场景
    🤖 Single Agent小型、自包含的任务,交给一个 AI 独立完成简单的代码生成、文件操作、信息查询
    👨‍👩‍👧‍👦 Subagents复杂任务分解为子任务,由主 Agent 监督协调代码重构、多步骤部署、系统迁移
    🌐 Multi-agents多个独立 Agent 协作、协商、交换结果复杂系统设计、跨团队协作、需要多视角的决策

    Subagent 模式详解

    在 Subagent 模式中,主 Agent 拥有整个流程的控制权:

    ┌────────────────────────────────────────────────────┐
    │                 主 Agent(项目协调者)               │
    │           负责:任务分解、进度监控、结果整合          │
    │                         ↓                          │
    │    ┌───────────────────────────────────────┐       │
    │    │              任务分配                  │        │
    │    └───────────────────────────────────────┘       │
    │         ↓              ↓              ↓            │
    │  ┌──────────┐  ┌──────────┐  ┌──────────┐        │
    │  │ Subagent │  │ Subagent │  │ Subagent │         │
    │  │  架构师   │  │  开发者   │  │  测试员   │         │
    │  └──────────┘  └──────────┘  └──────────┘        │
    │         ↓              ↓              ↓            │
    │    ┌───────────────────────────────────────┐       │
    │    │              结果汇总                  │        │
    │    └───────────────────────────────────────┘       │
    └────────────────────────────────────────────────────┘

    Multi-Agent 协作模式

    Multi-Agent 模式下,多个主 Agent 各自独立运作,但可以在工作交叉时进行协作和协商。

    💡 前沿探索gooseTeam MCP Server 项目正在探索允许一组专业化的 Goose Agent 协同完成复杂任务的协议,由一个「项目协调者」Agent 统一管理。

    实际应用场景

    场景Agent 配置工作流程
    🏗️ 全栈开发规划者 + 前端开发 + 后端开发 + 测试规划 → 并行开发 → 集成测试
    🔒 安全审计静态分析 + 动态扫描 + 渗透测试并行扫描 → 结果聚合 → 报告生成
    📚 文档生成代码分析 + 文档撰写 + 审校分析 → 撰写 → 校对 → 发布

    3. 使用场景

    🖥️ 全栈开发

    Goose 在全栈开发场景中的核心能力:

    • 📝 从产品愿景出发,自动拆解任务、设置技术栈并编写前后端逻辑
    • 🏗️ 自动生成项目脚手架,包括目录结构、配置文件、依赖管理
    • 🔄 支持主流框架:React、Vue、Next.js、Node.js、Python Flask/FastAPI 等
    • 🧪 自动编写单元测试和集成测试

    典型工作流示例:

    用户输入:"帮我创建一个带用户认证的博客系统"
        ↓
    Goose 自动执行:
    1️⃣ 分析需求,选择技术栈(Next.js + Prisma + PostgreSQL)
    2️⃣ 创建项目结构和基础配置
    3️⃣ 实现用户注册/登录功能
    4️⃣ 创建博客 CRUD API
    5️⃣ 构建前端页面
    6️⃣ 编写测试用例
    7️⃣ 配置 Docker 部署文件

    ⚙️ 系统管理与 DevOps

    Goose 可以通过运行 Shell 命令、阅读日志和调试故障来管理复杂的工程流水线:

    能力具体操作
    🔍 日志分析读取系统日志,识别错误模式,定位问题根因
    🚀 CI/CD 管理配置 GitHub Actions、GitLab CI、Jenkins 流水线
    🐳 容器编排管理 Docker 容器、Kubernetes 集群
    📊 监控告警配置 Prometheus、Grafana 监控规则
    🔧 故障修复自动化执行修复脚本,验证修复效果

    📈 非工程任务拓展

    虽然首选场景是软件工程,但 Block 正在探索其在非技术领域的潜力。

    Block 内部实践显示,Goose 的应用已远超软件开发范畴:

    应用领域具体用途
    📊 销售分析自动化数据提取、报告生成、趋势分析
    📝 内容管理文档整理、格式转换、批量编辑
    🎓 内部培训培训材料生成、知识库构建
    🎵 创意探索音乐生成、多媒体内容创作
    📧 办公自动化邮件处理、日程管理、会议纪要

    📊 Block 数据:超过 6,500 名 Block 员工(占全员工 60%+)每周使用 Goose,其中销售、市场和业务团队的采用率同样强劲,这证明了 Goose 在非技术岗位的实用价值。


    4. 企业级特性:安全与隐私

    🔐 为企业环境设计的安全架构

    Goose 的安全设计特别考虑了企业级需求,尤其适合对数据隐私要求严格的行业:

    部署灵活性

    部署方式描述适用场景
    🏠 本地部署完全在用户机器上运行个人开发者、小团队
    🏢 内网部署部署在企业内部服务器中大型企业
    ☁️ VPC 部署部署在虚拟私有云需要弹性扩展的企业
    🔒 离线部署配合本地模型完全断网运行高安全等级场景

    关键安全特性

    • 🔒 零数据上传:代码和数据不会发送到 Block 或任何第三方服务器
    • 🔑 API Key 本地管理:凭证存储在本地配置文件中
    • 📋 完整审计能力:所有操作可追溯、可审计
    • 🛡️ MCP 安全设计:Block 信息安全团队深度参与 MCP Server 的安全架构设计

    行业适用性

    行业核心需求Goose 解决方案
    🏦 金融服务代码不可外泄、合规审计本地运行 + 完整日志
    🏥 医疗健康HIPAA 合规、患者隐私VPC 部署 + 数据隔离
    🏛️ 政府机构数据主权、离线要求离线模式 + 本地模型

    👨‍💼 团队协作功能

    Goose 提供了完整的团队协作支持:

    # 团队管理命令示例
    goose team init                    # 初始化团队配置
    goose team add-member <email>      # 添加团队成员
    goose team set-standards           # 设置团队编码标准
    goose team share-recipe <name>     # 共享 Recipe 给团队

    5. 市场定位与对比分析

    🆚 Goose vs 主流 AI 编程工具对比

    理解 Goose 的独特定位,需要与其他主流工具进行对比:

    对比维度GitHub CopilotCursorGoose
    核心定位IDE 插件,代码补全AI-First 编辑器自主执行 Agent
    工作模式被动建议编辑器内 AI 辅助独立自主执行
    运行环境云端云端本地优先
    模型绑定OpenAI/Claude/Gemini多模型支持完全模型无关
    开源情况❌ 闭源❌ 闭源Apache 2.0
    自定义扩展有限中等高度可扩展 (MCP)
    执行能力仅代码建议Agent 模式有限执行完整自主执行
    企业部署SaaSSaaS可本地/私有部署

    定价对比

    工具定价模式
    GitHub Copilot免费版(受限)/ Pro \(10/月 / Pro+\)39/月
    CursorPro \(20/月 / Pro+\)60/月 / Ultra $200/月
    Goose免费(Apache 2.0)+ LLM API 费用(约 $10-50/月)

    选择建议

    如果你需要...
    ├── 在现有 IDE 中获得代码建议 → GitHub Copilot
    ├── AI 深度集成的编辑体验 → Cursor
    ├── 自主执行复杂任务的 Agent → Goose
    ├── 完全开源可控的解决方案 → Goose
    └── 企业私有化部署 → Goose

    💡 关键区分:Block 官方明确表示——"Goose 不是在与自动补全或内联建议竞争——它是一个完全不同的类别。把它想象成'Agent 行为的构建系统',而不是更好的 IDE 集成。"


    6. 实际采用数据

    📊 Block 内部使用数据

    Goose 在 Block 内部的大规模采用提供了有力的效果验证:

    指标数据
    👥 周活跃用户6,500+ 员工(占 10,000+ 员工的 60%+)
    👨‍💻 工程师采用率约 1,000 名工程师(工程团队的 20%)
    ⏱️ 工程师时间节省每周 8-10 小时
    📈 开发效率提升20% 时间节省,30% 产能提升
    🔄 手动工作减少约 25%

    🌍 开源社区数据

    指标数据
    ⭐ GitHub Stars25,000+
    👨‍💻 贡献者数量350+
    📦 发布版本100+
    🔧 支持的 LLM 提供商25+

    7. 如何开始使用

    Goose 提供了两种交互方式,满足不同开发者的习惯:

    💻 桌面端应用 (Desktop App)

    提供直观的 UI 界面,适合大多数用户,尤其是刚接触命令行的开发者。

    安装步骤:

    1. 访问 Goose 官方下载页面
    2. 下载对应操作系统的安装包
    3. 解压并运行安装程序
    4. 启动应用,按引导完成初始配置

    ⌨️ 命令行工具 (CLI)

    深受开发者喜爱,具有更强的可移植性,适用于 CI/CD 流程。

    安装命令:

    # macOS / Linux
    curl -fsSL https://github.com/block/goose/releases/download/stable/download_cli.sh | bash
    
    # 验证安装
    goose --version

    🚀 快速开始流程

    方式一:自动配置(推荐新手)

    选择 Tetrate Agent Router 自动配置:

    • Goose 会打开浏览器进行 Tetrate 认证
    • 首次认证可获得 $10 免费额度
    • 认证完成后即可开始使用

    方式二:手动配置提供商

    # 启动配置向导
    goose configure
    
    # 选择 LLM 提供商(如 OpenAI)
    # 输入 API Key
    # 选择默认模型

    📖 基本使用示例

    # 启动交互式会话
    goose session
    
    # 使用单行命令执行任务
    goose run -t "创建一个 React 项目并添加用户登录功能"
    
    # 使用文件中的指令
    goose run -i instructions.md
    
    # 使用保存的 Recipe
    goose run --recipe code-review --repo_url https://github.com/user/repo

    🏠 本地模型配置(完全离线)

    对于需要完全隐私保护的场景,可以配置本地模型:

    # 1. 安装 Ollama
    curl -fsSL https://ollama.ai/install.sh | sh
    
    # 2. 下载模型
    ollama pull qwen2.5:32b
    
    # 3. 配置 Goose 使用本地模型
    goose configure
    # 选择 Provider: Ollama
    # 选择 Model: qwen2.5:32b

    8. 学习资源与社区

    📚 官方资源

    资源链接
    📖 官方文档block.github.io/goose
    💻 GitHub 仓库github.com/block/goose
    📝 官方博客block.github.io/goose/blog
    📋 快速入门Quickstart Guide

    🎓 推荐学习路径

    1️⃣ 基础入门
       └── 安装配置 → 基本会话 → 简单任务执行
    
    2️⃣ 进阶使用
       └── Recipe 编写 → MCP 集成 → 多模型配置
    
    3️⃣ 高级应用
       └── Sub-Recipe 架构 → Multi-Agent 协作 → 企业部署
    
    4️⃣ 生态贡献
       └── 自定义 MCP Server → 社区 Recipe 贡献

    9. 小结

    Goose 代表了 AI 编程工具从「辅助建议」到「自主执行」的范式转变。其核心竞争力在于:

    核心优势说明
    🏠 本地优先数据不出本地,满足严格的隐私合规要求
    🔓 完全开源Apache 2.0 许可,可审计、可修改、可商用
    🧩 高度可扩展基于 MCP 协议,可连接海量工具生态
    🧠 模型无关支持 25+ LLM 提供商,灵活切换
    👥 多 Agent 协作支持复杂任务的智能体团队协作
    🏢 企业就绪经 Block 6,500+ 员工验证的生产级方案

    Goose 入选 Linux 基金会 Agentic AI 基金会创始项目,与 MCP、AGENTS.md 并列,标志着其已成为 AI Agent 领域的行业标准之一。


    参考资料

    1. Block 官方发布公告
    2. Goose GitHub 仓库
    3. Linux 基金会 AAIF 公告
    4. Goose 官方文档
    5. Agent 协调模式详解
    6. Recipe 工作流指南
    7. MCP 协议安全性
    8. VentureBeat 报道

    Brave 回复 1 day, 17 hours ago 1 成員 · 0 回复
  • 0 回复

歡迎留言回复交流。

Log in to reply.

讨论開始
00 回复 2018 年 6 月
現在