streaming.mdx 7.8 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183
  1. ---
  2. title: "流式响应机制 - Claude Code 打字机效果原理"
  3. description: "解析 Claude Code 流式响应实现:如何通过 SSE 逐 token 接收 AI 输出,实现实时打字机效果,提升用户等待体验。"
  4. keywords: ["流式响应", "SSE", "streaming", "实时输出", "API streaming"]
  5. ---
  6. ## 为什么需要流式
  7. 想象 AI 需要 30 秒才能生成完整回答——如果等 30 秒后才一次性显示,用户体验是灾难性的。
  8. 流式响应让用户**实时看到 AI 的思考过程**:
  9. - 文字逐字出现,用户能提前判断方向是否正确
  10. - 工具调用的参数在生成过程中就能预览
  11. - 长时间任务不会让用户觉得"卡死了"
  12. ## `BetaRawMessageStreamEvent` 核心事件类型
  13. 流式 API 返回的是一系列 `BetaRawMessageStreamEvent`,每种事件类型对应流式响应的不同阶段(`src/services/api/claude.ts`):
  14. ```
  15. message_start ← 消息开始,包含 model、usage 初始值
  16. ├── content_block_start ← 内容块开始(text / tool_use / thinking)
  17. │ ├── content_block_delta ← 增量数据(text_delta / input_json_delta / thinking_delta)
  18. │ ├── content_block_delta ← ... 持续到达
  19. │ └── content_block_stop ← 内容块结束,yield AssistantMessage
  20. ├── content_block_start ← 下一个内容块...
  21. │ └── ...
  22. └── message_delta ← stop_reason + 最终 usage
  23. message_stop ← 消息结束
  24. ```
  25. ### 事件处理状态机
  26. `src/services/api/claude.ts:1980-2298` 实现了一个基于 `switch(part.type)` 的状态机:
  27. | 事件类型 | 处理逻辑 | 状态变更 |
  28. |----------|----------|----------|
  29. | `message_start` | 初始化 `partialMessage`,记录 TTFT(首字节延迟) | `usage` 初始化 |
  30. | `content_block_start` | 按 `part.index` 创建对应类型的内容块 | `contentBlocks[index]` 初始化 |
  31. | `content_block_delta` | 按子类型增量追加数据 | text / thinking / input 累加 |
  32. | `content_block_stop` | 构建完整 `AssistantMessage` 并 yield | 消息推入 `newMessages` |
  33. | `message_delta` | 更新 stop_reason 和最终 usage | 写回最后一条消息 |
  34. | `message_stop` | 无操作(流结束标记) | — |
  35. ### 内容块类型及其增量数据
  36. `content_block_start` 中的 `content_block.type` 决定了如何处理后续 delta:
  37. | 内容块类型 | Delta 类型 | 累加逻辑 |
  38. |-----------|-----------|----------|
  39. | `text` | `text_delta` | `text += delta.text` |
  40. | `thinking` | `thinking_delta` + `signature_delta` | `thinking += delta.thinking`,`signature = delta.signature` |
  41. | `tool_use` | `input_json_delta` | `input += delta.partial_json`(JSON 字符串增量拼接) |
  42. | `server_tool_use` | `input_json_delta` | 同 tool_use |
  43. | `connector_text` | `connector_text_delta` | 特殊连接器文本(feature flag 控制) |
  44. 关键设计:`content_block_start` 时所有文本字段初始化为空字符串,只通过 `content_block_delta` 累加。这是因为 SDK 有时在 start 和 delta 中重复发送相同文本。
  45. ## 文本 chunk 和 tool_use block 的交织
  46. 一次 AI 响应可能包含多个内容块,交替出现:
  47. ```
  48. content_block_start (text, index=0) "我来帮你修复这个 bug。"
  49. content_block_delta (text_delta) "首先..."
  50. content_block_stop (index=0)
  51. content_block_start (tool_use, index=1) { name: "Read", input: "..." }
  52. content_block_delta (input_json_delta) '{"file_p' → 'ath":' → '"src/foo.ts"}'
  53. content_block_stop (index=1)
  54. content_block_start (text, index=2) "我已经看到了问题所在..."
  55. content_block_stop (index=2)
  56. ```
  57. 每个 `content_block_stop` 触发一次 `yield`,将完整的 AssistantMessage 推送给消费者。这意味着一个 AI 响应会产生**多条** `AssistantMessage`——文本消息和工具调用消息交替产出。
  58. `stop_reason` 要等到 `message_delta` 才确定(可能是 `end_turn`、`tool_use`、`max_tokens` 等),所以最后一条消息的 `stop_reason` 是**回写**的:
  59. ```typescript
  60. // claude.ts:2246 — 直接属性修改,不用对象替换
  61. // 因为 transcript 写队列持有 message.message 的引用
  62. const lastMsg = newMessages.at(-1)
  63. if (lastMsg) {
  64. lastMsg.message.usage = usage
  65. lastMsg.message.stop_reason = stopReason
  66. }
  67. ```
  68. ## 流式中的错误处理
  69. ### 网络断开
  70. 流式连接依赖 SSE(Server-Sent Events)。当连接中断时:
  71. 1. **Stream idle watchdog**:定时检测事件间隔,超过阈值(stall)触发告警和重试
  72. 2. **Stream abort**:如果 watchdog 检测到长时间无事件,抛出错误进入重试流程
  73. 3. **非流式降级**:作为最后手段,回退到非流式请求(一次性获取完整响应)
  74. ```typescript
  75. // claude.ts:2338-2355 — 检测空流
  76. // 1. 完全没有事件 → 代理返回了非 SSE 响应
  77. // 2. 有 message_start 但没有 content_block_stop → 流被截断
  78. ```
  79. ### API 限流
  80. 当 API 返回限流错误时,系统使用 `withRetry` 包装器进行指数退避重试。重试逻辑考虑了:
  81. - 错误类型(429 限流 vs 500 服务器错误)
  82. - 重试次数上限
  83. - 退避间隔
  84. ### Token 超限
  85. 两种 token 超限场景有不同的处理:
  86. | 场景 | stop_reason | 处理方式 |
  87. |------|------------|----------|
  88. | **输出超限** | `max_tokens` | 生成错误消息,建议设置 `CLAUDE_CODE_MAX_OUTPUT_TOKENS` |
  89. | **上下文窗口超限** | `model_context_window_exceeded` | 触发 compaction 压缩对话历史后重试 |
  90. ```typescript
  91. // claude.ts:2267-2293
  92. if (stopReason === 'max_tokens') {
  93. yield createAssistantAPIErrorMessage({ error: 'max_output_tokens', ... })
  94. }
  95. if (stopReason === 'model_context_window_exceeded') {
  96. // 复用 max_output_tokens 的恢复路径
  97. yield createAssistantAPIErrorMessage({ error: 'max_output_tokens', ... })
  98. }
  99. ```
  100. ### 流式停滞检测
  101. 系统持续监控事件到达间隔,检测"停滞"(stall):
  102. ```typescript
  103. // claude.ts:1940-1966
  104. const STALL_THRESHOLD_MS = 10_000 // 10 秒无事件视为停滞
  105. if (timeSinceLastEvent > STALL_THRESHOLD_MS) {
  106. stallCount++
  107. totalStallTime += timeSinceLastEvent
  108. logEvent('tengu_streaming_stall', { stall_duration_ms, stall_count, ... })
  109. }
  110. ```
  111. 多个 stall 累积后,watchdog 可能决定中断流并触发重试。
  112. ## 工具执行的流式反馈
  113. BashTool 的命令执行也是流式的——通过 `onProgress` 回调逐行推送输出:
  114. ```
  115. BashTool.call() → runShellCommand() → AsyncGenerator
  116. ├── 每秒轮询输出文件 → onProgress(lastLines, allLines, ...)
  117. ├── yield { type: 'progress', output, fullOutput, elapsedTimeSeconds }
  118. └── return { code, stdout, interrupted, ... }
  119. ```
  120. UI 层通过 `useToolCallProgress` hook 实时展示命令输出,而不是等命令完全结束。长时间运行的命令还支持自动后台化(`shouldAutoBackground`)。
  121. ## 多 Provider 适配
  122. | Provider | 流式协议 | 特殊处理 |
  123. |----------|----------|----------|
  124. | **Anthropic Direct** | 原生 SSE | 延迟最低,TTFT 最快 |
  125. | **AWS Bedrock** | AWS SDK 流式接口 | 需要额外的 beta header 和认证 |
  126. | **Google Vertex** | gRPC → 事件流 | 通过 `getMergedBetas()` 适配 |
  127. | **Azure** | Anthropic 兼容 API | 自定义 base URL |
  128. 所有 Provider 通过统一的 `Stream<BetaRawMessageStreamEvent>` 抽象层屏蔽差异。上层代码(QueryEngine、REPL)不需要关心底层用的是哪个 Provider。
  129. ### Provider 选择
  130. `src/utils/model/providers.ts` 中的 `getAPIProvider()` 根据配置决定使用哪个 Provider:
  131. ```typescript
  132. // 根据 api_provider 配置选择:
  133. // "anthropic" → 直连
  134. // "bedrock" → AWS SDK
  135. // "vertex" → Google SDK
  136. // 第三方 base URL → 自动检测
  137. ```
  138. 每个 Provider 需要适配的细节包括:认证方式、beta header、请求参数格式、错误码映射——但这些差异在 `claude.ts` 的 `queryStream()` 函数中被统一处理。