LinhNDM — Nguyễn Đình Mạnh Linh
Title Slide

Chương 9
AI Agent Thực Sự Là Gì?

Vượt Xa Autocomplete - Reasoning, Planning, Acting

PLAYBOOK SDD ADD & CODEX | Chuyên đề cho chuyên gia công nghệ về bản chất kỹ thuật của AI Agent: cách agent nhận thức trạng thái, suy luận kế hoạch, hành động qua tool, nhận phản hồi môi trường và tự điều chỉnh.

Giới thiệu chương

Từ marketing term đến cơ chế kiến trúc

Chín chương trước đã dựng framework SDD. Chương này lùi một bước để trả lời câu hỏi nền tảng: AI Agent thực sự là gì ở góc nhìn kiến trúc kỹ thuật, không phải khẩu hiệu.

Điểm cốt lõi cần hiểu: cơ chế nào cho phép agent đọc file, chạy test, tự sửa lỗi và lặp lại đến khi đạt mục tiêu; khi nào agent đang thật sự suy luận và khi nào nó chỉ đang đoán theo pattern.

Inference-time Compute là cốt lõi của agent hiện đại: model dùng thời gian để nghĩ, tự phản biện, tự kiểm tra trước khi commit output. Agent không phải fast answering machine, mà là slow thinking machine.
Mục lục

Cấu trúc Chương 9

9.1 Định nghĩa Agent

Perception -> Reasoning -> Action, feedback loop, so sánh với autocomplete và chat.

9.2 Kiến trúc Agentic Coding

Agent core, tool layer, MCP, checkpoint, state management.

9.3 Mức độ Autonomy

Conversational, Agentic, Autonomous và vai trò Human-in-the-Loop.

9.4 Demo thực tế

Session 6 phases, đọc logs, internal monologue.

9.5 Giới hạn hiện tại

Token burn, loop trap, dependency model, context cliff, API hallucination.

Kết chương

Tổng hợp key concepts và chuyển tiếp sang Chương 10.

9.1
Section Header

Định nghĩa Agent

Perception -> Reasoning -> Action và Environmental Feedback

9.1

AI Agent khác chatbot ở đâu?

Từ "agent" bị lạm dụng. Định nghĩa kỹ thuật chính xác: một AI Agent phải có khả năng nhận thức trạng thái môi trường (Perception), lập kế hoạch theo trạng thái (Reasoning), thực thi hành động (Action), rồi điều chỉnh dựa trên phản hồi (Feedback Loop) cho đến khi đạt mục tiêu.

  • Chatbot nhận phản hồi chủ yếu từ con người.
  • Agent nhận thêm phản hồi từ môi trường thực thi.
  • Feedback gồm lỗi terminal, test result, API response, command output.
Sự khác biệt ở đây là kiến trúc hệ thống, không phải thay đổi cách gọi tên sản phẩm.
9.1.1

Vòng lặp Plan -> Execute -> Observe -> Adjust

  • PERCEIVE: đọc context và trạng thái môi trường hiện tại.
  • REASON: dùng inference-time compute để lập kế hoạch.
  • ACT: gọi tool để sửa file, chạy lệnh, gọi API, thao tác MCP.
  • OBSERVE: nhận test output, lỗi runtime, response từ hệ thống.
  • ADJUST: tái lập kế hoạch theo phản hồi và lặp lại.
Goal Achieved
Dừng khi đạt mục tiêu
Explicit Stop
Dừng khi có tín hiệu dừng rõ ràng
Resource Limit
Dừng khi vượt ngân sách compute/token
9.1.2

Inference-time Compute: Agent nghĩ như thế nào?

Inference-time Compute giải thích vì sao agent hiện đại thông minh hơn simple autocomplete. Thay vì sinh output ngay, model dành compute để suy luận rồi mới commit kết quả.

Claude Sonnet hay o1 có thể chậm hơn GPT-3.5 ở tốc độ phản hồi tức thời nhưng thường chất lượng tốt hơn cho task nhiều bước, logic phức tạp, debugging đa file.

Extended Thinking trong Claude tạo thinking tokens ẩn trước output, hữu ích cho phân tích vấn đề, cân nhắc nhiều approach và phát hiện edge case; đổi lại token cost thường tăng 2-5 lần.
Table

Bảng cơ chế suy luận

Cơ chếTênHoạt độngModel điển hìnhUse case tốt nhất
Fast answeringStandard generationToken -> token trực tiếpGPT-3.5, Claude HaikuCâu trả lời nhanh, task đơn giản
Chain-of-thoughtStep-by-stepViết reasoning steps rồi kết luậnGPT-4, Claude SonnetToán nhiều bước, logic problem
Extended thinkingInternal monologueThinking tokens ẩn trước outputClaude Sonnet (thinking mode)Planning phức tạp, code debugging
Search-augmentedTest-time searchGenerate -> verify -> backtracko1, o3, Claude OpusFormal verification, proofs
"Agent hiện đại không phải fast answering machine,
mà là slow thinking machine."
9.1.3

Autocomplete -> Chat -> Agent

Ba thế hệ công cụ coding AI có năng lực kiến trúc khác nhau: autocomplete chỉ gợi token kế tiếp; conversational tạo code/text theo prompt; agent có khả năng lập kế hoạch, thực thi tool, nhận phản hồi và tự sửa lỗi theo vòng lặp.

Context window cũng khác biệt mạnh: autocomplete chỉ quanh file hiện tại, chat ở mức 8K-128K, còn agent có thể mở rộng 200K+ nhờ tích lũy qua tool outputs.
Table

Bảng so sánh Autocomplete - Chat - Agent

Tiêu chíAutocompleteChatAgent
Hành độngSuggest next tokensGenerate code/text blockPlan + execute + loop
Tự lập kế hoạchKhôngKhôngCó (multi-step)
Đọc codebaseChỉ file hiện tạiChỉ khi paste vàoTự đọc nhiều files
Thực thi lệnhKhôngKhôngTerminal, test runner
Environmental feedbackKhôngChỉ từ userErrors, test results
Tự sửa lỗiKhôngKhi user báoTự detect + fix loop
Error recoveryKhông cóKhông cóRollback + checkpoint
Ví dụ toolCopilot inline, TabnineChatGPT, Claude.aiCline, Claude Code, Cursor
Context window~2K8K-128K200K+ qua tools
9.1.4

Environmental Feedback là khác biệt then chốt

Khi chạy pytest và nhận lỗi AssertionError, IntegrityError, agent không dừng để hỏi tiếp mà tự parse output, trace root cause, tạo bản sửa và chạy test lại.

FAILED test_cart_merge_max_qty: assert 5 == 3
FAILED test_concurrent_add: duplicate key value violates unique constraint
1 passed, 2 failed in 0.23s
Đây là năng lực nền tảng để agent làm việc end-to-end mà không cần human input ở từng bước vi mô.
9.2
Section Header

Kiến trúc Agentic Coding

Agent core, tool layer, feedback processing và checkpoint

9.2

Kiến trúc tổng quan

Agentic coding system không chỉ là "LLM + khả năng chạy code". Đây là pipeline gồm model lõi, context management, tool orchestration, state tracking, feedback parsing và inject lại context cho vòng kế tiếp.

  • Agent Core: LLM engine + context window (system prompt, AGENTS/CLAUDE, history, tool outputs, file contents).
  • Tool Layer: file ops, terminal, web search, MCP servers, checkpoint system.
  • Feedback Processing: parse stdout/stderr, phân loại lỗi, tính state diff.
  • Kết quả được bơm ngược vào context để tự sửa trong iteration kế tiếp.
9.2.1

Sơ đồ kiến trúc: các khối vận hành

  • LLM Engine thực hiện inference-time compute và phát sinh tool calls.
  • Context Window chứa prompt hệ thống, tài liệu quy ước, lịch sử và kết quả công cụ.
  • Tool Layer kết nối file, terminal, MCP servers (GitHub/Jira/DB/Slack).
  • Feedback Processing chuẩn hóa log thực thi để vòng lặp tiếp theo ra quyết định tốt hơn.
Điểm thực dụng: hiểu kiến trúc giúp debug khi agent hoạt động lệch kỳ vọng.
9.2.2

Tool Layer và vai trò của MCP

Trước MCP, mỗi tool phải tích hợp riêng cho từng agent. MCP chuẩn hóa giao tiếp kiểu "write once, use everywhere": bất kỳ server nào implement protocol đều dùng lại được trên host tương thích.

Trong SDD, agent cần đọc spec từ issue tracker, đọc code từ filesystem, chạy test ở terminal và cập nhật trạng thái project. MCP là lớp chuẩn hóa để các luồng này nối liền.
Table

Bảng Tool Layer theo category

Tool categoryCapabilitiesVí dụ MCP ServerKhi agent dùng
File Systemread, write, list, searchFilesystem MCPĐọc codebase, edit files, tìm patterns
Terminalexecute commands, capture outputNative (built-in)Run tests, build, git, CLI tools
Web Searchquery, fetch pagesBrave Search MCPTìm docs, error solutions, API specs
Version Controlgit log, diff, blame, PRGitHub MCPTrace history, tạo PR, review changes
Project Mgmtissues, tasks, sprintsJira/Linear MCPĐọc requirements, update status
Databasequery, schema inspectPostgreSQL MCPVerify data, check migrations
Communicationsend messages, searchSlack MCPAlert hoàn thành, escalate issues
"MCP là USB standard cho AI tools.
Thay vì mỗi agent tự build integration,
mọi agent dùng lại cùng một protocol."
9.2.3

Extended Thinking trong hành động

Khi nhận task "Fix failing cart merge test", agent không phản hồi ngay. Nó đọc failure, đối chiếu SPEC, so sánh approach, dự báo side effects, rồi mới quyết định sửa logic cộng quantity thành lấy max.

<thinking>
Approach 1: change add -> max
Approach 2: verify test vs spec
SPEC §3 says keep max(guest_qty, user_qty)
=> Test đúng, code sai. Fix CartMergeService.merge().
</thinking>
Thinking tokens tốn chi phí nhưng tăng chất lượng quyết định cho debugging đa file và planning kiến trúc.
9.2.4

Checkpoint System và State Management

Ba tầng checkpoint

  • Tầng 1: Git-based checkpoint trước action lớn.
  • Tầng 2: Tool snapshot trước khi overwrite file.
  • Tầng 3: Session checkpoint để rewind hội thoại.

Workflow an toàn

  • Quy tắc bắt buộc: checkpoint -> action, không làm ngược.
  • Khi đi sai hướng: rollback checkpoint và thử approach mới.
  • Khi context đầy: summarize, clear, re-inject essentials.
Context window đầy (>150K tokens) làm agent quên phần đầu task, re-plan sai và bỏ qua constraints.
9.2.4

Checkpoint workflow thực thi

create_checkpoint -> git stash / commit state hiện tại

AGENT: \"Tôi sắp xóa nhiều file. Checkpoint tại abc123.\"
       \"Rollback: git checkout abc123\"

Nếu đi sai hướng:
git reset --hard abc123
Agent restart với approach mới.

Manual rollback:
- Cline: Ctrl+Z / Restore checkpoint
- Claude Code: /restore hoặc git reset
Nguyên tắc trong tài liệu: tạo checkpoint trước hành động nguy hiểm, không làm sau.
Table

Bảng State type - TTL - Risk

State typeLưu ở đâuTTLRisk nếu mất
Working memory (current plan)Context windowSessionAgent quên plan, re-plan sai
File changesFilesystemPermanentMất code nếu không checkpoint
Tool outputsContext window (appended)Session (truncated)Agent quên kết quả test cũ
Conversation historyContext windowSessionContext coherence bị break
Cross-session memoryMCP Memory ServerConfigurableAgent không nhớ preferences
9.3
Section Header

Agentic vs Conversational vs Autonomous

Ba mức autonomy, ba mức rủi ro và oversight

9.3.1

Three-tier Autonomy Spectrum

Tier 1 - Conversational

Pattern: Human input -> AI output -> Human review. Error recovery gần như không có, con người phải phát hiện và phản hồi lỗi.

Tier 2 - Agentic

Pattern: Human intent -> AI executes -> Human gates. AI tự sửa lỗi qua feedback loop; đây là sweet spot hiện tại.

Tier 3 - Autonomous

Pattern: High-level goal -> AI thực thi toàn bộ (đọc ticket, sửa code, test, tạo PR, merge). Hiện vẫn phù hợp hơn cho tác vụ cô lập và dễ rollback.

Table

Bảng so sánh Conversational - Agentic - Autonomous

Tiêu chíConversationalAgenticAutonomous
Human inputMỗi bướcChỉ tại approval gatesChỉ high-level goal
Tự lên kế hoạchKhôngMulti-step planLong-horizon plan
Error recoveryHuman phải báoSelf-detect + fixAutomated rollback
Rủi ro khi saiThấpVừa (gate controlled)Cao (no human gate)
TraceabilityManual reviewLog + checkpointCần audit system
Cost efficiencyHuman bottleneck90% AI, 10% humanHighest automation
Tool examplesChatGPT, Claude.aiCline, Claude Code, CursorAI Software Engineers (2025+)
Best forSimple tasksFeature dev, bug fixMaintenance, scheduled tasks
9.3.3

Human-in-the-Loop: Con người là Gatekeeper

Một hiểu lầm phổ biến: nghĩ HITL là dấu hiệu AI chưa đủ mạnh. Thực tế, đây là thiết kế chủ ý để kiểm soát risk tại các điểm khó đảo ngược.

  • Agent làm 90% phần nặng: đọc codebase, phân tích, plan, viết code, chạy test, tự sửa lỗi.
  • Human can thiệp tại điểm no-return: delete, deploy, lệnh nguy hiểm, thay đổi shared history.
Triết lý vận hành: tăng tốc ở vùng an toàn (read/analyze/test), kiểm soát chặt ở vùng rủi ro cao.
Các tool năm 2025: Conversational (ChatGPT/Claude.ai/Gemini web), Agentic (Cline/Claude Code/Cursor), Approaching Autonomous (Devin, SWE-agent).
9.3.3

Cline approval gate configuration

{
  "cline.alwaysAllowReadOnly": true,
  "cline.alwaysAllowWrite": false,
  "cline.alwaysAllowExecute": false,
  "cline.autoApproveEnabled": false,
  "cline.allowedCommands": ["pytest", "ruff", "mypy", "git status", "git diff"]
}
Philosophy: read/analyze/test chạy nhanh; human review ở point-of-no-return để giữ quality assurance.
Table

Approval Gate Design

ActionRisk levelGate typeLý do cần human
Read files, search webThấpAuto-approveKhông đổi state, không side effects
Write file (small edit)VừaShow diff, 1-click approveReversible nhưng cần eyeball check
Delete filesCaoExplicit confirm + checkpointKhó hoàn tác, nguy cơ mất dữ liệu
Run terminal commandsTùy lệnhShow command, approve trước runLệnh như rm -rf cần human review
Git commitVừaShow message + diffẢnh hưởng shared history
Deploy / ReleaseCaoFull review + explicit approveProduction impact, khó undo
Call external APIsTùy APIShow request detailsCost, side effects, rate limits
"Gate is feature, not bug.
Agentic sweet spot = AI làm 90%, human gates 10% risk."
9.4
Section Header

Demo: Agent Làm Việc Thực Tế

Walkthrough session thật, có lỗi và tự sửa

9.4.1

Session Walkthrough - Phases 1 đến 3

Phase 1 - Perception: Agent đọc cấu trúc `src/cart/`, mở `service.py`, `models.py`, và `SPEC.md` để hiểu merge rule: cùng product+variant thì giữ max(qty).

Phase 2 - Reasoning: Agent lập plan với 5 scenarios: merge qty theo max, thêm guest-only item, giữ user-only item, refresh snapshot_price, xóa guest cart sau merge.

Phase 3 - Action: Agent tạo `merge_service.py`, viết tests cho 5 tình huống, chạy `pytest` để quan sát kết quả thực thi.

Điểm thực tế: Agent có thể giả định sai kiến trúc ban đầu (ví dụ transaction placement), và điều này sẽ lộ ra ở phase quan sát.
9.4.1

Session Walkthrough - Phases 4 đến 6

Phase 4: Observe

Test fail với `Cart.add_item` không tồn tại và transaction không hợp với unit-test context.

Phase 5: Reasoning

Agent tự phân tích: chuyển transaction lên CartService để đúng orchestration pattern, giữ MergeService thuần logic.

Phase 6: Adjust

Agent sửa `merge_service.py`, `service.py`, update mocks test, chạy lại test.

Kết quả: 5/5 merge tests pass; 23/23 cart tests pass.

Files changed: tạo `merge_service.py`, cập nhật `service.py`, tạo test file.

9.4.2

Agent Log Analysis

Đọc logs cho biết agent đã làm gì, vì sao làm, lúc nào sai. Các mốc quan trọng: TASK_START, TOOL_CALL, THINKING duration, HUMAN_APPROVED, exit_code, TASK_COMPLETE.

[10:23:05] read_file SPEC.md -> Agent đọc spec
[10:23:08] THINKING duration 3.2s
[10:23:18] execute_command pytest -> exit_code 1
[10:23:19] THINKING duration 4.1s (analyze error)
[10:23:28] execute_command pytest -> exit_code 0
[10:23:30] TASK_COMPLETE total_tokens 22450
Signals debugging mạnh nhất: exit_code, thinking duration, context_tokens, số lần lặp tool call.
Table

Red Flags trong Agent Log

Log patternÝ nghĩaAction cần làm
Thinking duration > 10s liên tụcAgent stuck hoặc over-analyzingChia task nhỏ hơn
Cùng tool call lặp > 3 lầnLoop trapInterrupt, check root cause thủ công
context_tokens > 150KContext sắp đầySummarize và restart session
exit_code:1 > 5 lần liên tiếpAgent không fix được testHuman review spec + code
TOOL_CALL không có THINKING trướcActing without reasoningĐánh giá lại scope hoặc prompt
HUMAN_DENIED nhiều lầnĐề xuất hành động quá rủi roĐiều chỉnh task scope
9.4.3

Internal Monologue: vì sao chọn A thay vì B

Extended Thinking thường ẩn nhưng có thể bật trong Cline (`cline.showThinking`) hoặc qua API (`thinking: enabled`) để quan sát logic ra quyết định.

{
  "cline.showThinking": true,
  "cline.budgetTokens": 5000
}
client.messages.create(
 model="claude-sonnet-4-5",
 thinking={"type":"enabled","budget_tokens":5000}
)
Mục tiêu không phải đọc mọi token, mà xác thực chuỗi reasoning có bám spec/constraint và trade-off thực tế hay không.
9.4.3

Typical thinking excerpt (Redis vs MatView)

Approach A: Redis cache TTL 5 phút
Approach B: PostgreSQL materialized view

SPEC: p95 < 200ms, DB 50K products
Redis ~1ms, cost ~$20/month, cần cache invalidation
MatView ~5ms, cost $0, auto-refresh

PLAN.md: hệ thống đã có Redis cluster
=> Chọn Redis: không thêm hạ tầng, team đã quen vận hành.
"SPEC yêu cầu p95 < 200ms, Redis đã có sẵn trong hạ tầng,
nên chọn Redis thay vì materialized view.
Không phải cảm tính, mà là reasoning chain có kiểm chứng."
9.5
Section Header

Giới hạn của Agent Hiện tại

Đặt kỳ vọng đúng để thiết kế workflow bền vững

9.5

Kỳ vọng đúng = kết quả tốt hơn

Ngay cả model mạnh như Claude Opus hay GPT-4o vẫn có giới hạn từ kiến trúc. Mục tiêu không phải nản, mà là thiết kế quy trình phù hợp với điểm mạnh và điểm mù của agent.

Agent không phải "junior tốt hơn". Agent là specialist mạnh trong phạm vi context window nhưng có blind spots rõ ràng.
9.5.1

Token Burn: chi phí ẩn của Agentic Workflow

Mỗi thao tác đọc file, chạy command, nhận output, reasoning đều đốt token. Task tưởng nhỏ có thể lên 50K-200K token.

8,000
Setup tokens (AGENTS/CLAUDE + SPEC + PLAN/TASKS)
~25,400
Dynamic tokens (file reads, thinking, code gen, test output)
~$0.17
Chi phí điển hình / feature task
Khi loop 10 iterations: từ 28,000 token lên 280,000 token (~$1.70/task), tạo chi phí đội lên theo ngày.
9.5.1

Token budget breakdown chi tiết

Bước 1 - Initial context:
AGENTS.md + CLAUDE.md: 4,000
SPEC.md: 2,500
PLAN.md + TASKS.md: 1,500
Total setup: 8,000 tokens

Bước 2 - Dynamic:
Read source files: 12,500
Thinking: 4,500
Generate code: 4,000
Test output: 2,400
Error analysis: 2,000
Total dynamic: ~25,400 tokens
Budget controls trong tài liệu: `cline.maxTokensPerTask: 50000`, `cline.warnAt: 30000`.
Table

Chiến lược tối ưu token cost

Kỹ thuậtToken savingTrade-off
Dùng Haiku cho boilerplate tasks70-85% cheaperChất lượng thấp hơn cho logic phức tạp
Limit file reads (chỉ relevant)30-50%Cần tổ chức code tốt
Summarize context trước khi bắt đầu20-40%Có thể miss detail
Tắt Extended Thinking cho task đơn giản20-30%Giảm reasoning quality
Set hard token limit per taskKhông giảm trực tiếpTask có thể chưa hoàn tất
Break large tasks thành atomic15-25% mỗi taskTăng overhead phiên làm việc
9.5.2

Loop Trapping: khi agent bị kẹt vòng lặp

Loop trap xuất hiện khi fix lỗi A sinh lỗi B rồi quay lại A. Mỗi vòng trông khác nhau cục bộ nhưng không tiến bộ toàn cục.

Dấu hiệu nhận biết

  • Cùng test fail hơn 3 lần liên tiếp.
  • Edit cùng file hơn 5 lần.
  • Thinking time tăng dần và token tăng nhanh.
  • Xuất hiện thông điệp kiểu "Approach 5".

Cách xử lý

  • Interrupt ngay, đọc trạng thái hiện tại.
  • Human phân tích root cause (spec mơ hồ/constraint thiếu/dependency issue).
  • Cung cấp prompt làm rõ constraint cụ thể, không chỉ "fix test".
  • Nếu >5 lần fail: rollback và viết lại theo hướng mới.
9.5.2

Prompt đúng để phá loop

Sai: \"Fix the test failure\"
Prompt mơ hồ khiến agent tiếp tục loop.
Đúng: nêu rõ constraint dữ liệu và vị trí fix, ví dụ quantity phải >= 1 trong `CartService.add_item()`, reject bằng `ValidationError`, không vá test.

Rule of thumb: hơn 5 lần failed attempts thường là root-cause issue (spec/architecture), không còn là incremental fix.

9.5.3

Model Dependency: chất lượng bị chặn bởi model lõi

Cline, Claude Code, Cursor đều là orchestration layer. Trần chất lượng vẫn phụ thuộc năng lực model bên dưới. Agent architecture tốt + model yếu vẫn có thể tệ hơn architecture đơn giản + model mạnh.

Với SDD, model phù hợp cần: bám EARS spec, tự phát hiện vi phạm constraint, biết hỏi thay vì đoán.
Table

Bảng model cho agentic tasks

ModelStrengthsWeaknessesBest for agentic tasks
Claude SonnetCode quality, reasoning, spec complianceCost cao hơn HaikuBusiness logic, spec implementation
Claude HaikuNhanh, rẻYếu ở multi-step reasoningBoilerplate, task đơn giản
GPT-4oMulti-modal, broad knowledgeKém nghiêm spec hơnGeneral coding, docs
Llama 3 (local)Privacy, không API costYếu ở reasoning phức tạpSensitive code, offline work
o1/o3Deep reasoning, math mạnhRất chậm, rất đắtAlgorithm design, formal verification
9.5.4

Các giới hạn quan trọng khác

Context Window Cliff

Đến ngưỡng (~180K), phần đầu context bị rơi đột ngột: agent quên constraints, hỏi lại dữ kiện cũ, sinh code lệch pattern. Cần summarize định kỳ và chia task nhỏ.

API Hallucination

Agent có thể bịa method không tồn tại (`set_with_ttl` thay vì `setex`). Phòng tránh bằng docs/version trong context, ví dụ thật trong spec và bắt buộc chạy code sau generate.

Long-range dependency blindness: mạnh ở local code nhưng yếu khi thay đổi lan qua nhiều module; vì vậy cần integration tests, không chỉ unit tests.
Table

Tóm tắt giới hạn và cách đối phó

Giới hạnBiểu hiệnMitigationKhó tránh khi
Token BurnChi phí cao bất ngờHard limits, task decomposition, Haiku cho task đơn giảnRefactor đa file phức tạp
Loop TrapAgent không convergeClarification, rollback, human interventionSpec mơ hồ về constraints
Model DependencyQuality ceilingChọn model đúng loại taskBudget ép dùng model yếu
Context CliffAgent "quên"Summarization định kỳ, chia task nhỏSession > 4h trên codebase phức tạp
API HallucinationCode fail runtimeRun code ngay, đưa docs vào contextLibrary mới/ít phổ biến
Long-range BlindHidden breaking changesRun full test suite, không chỉ unit testCodebase lớn, nhiều dependency
Tổng kết

Summary / Takeaways Chương 9

PhầnKey conceptĐiểm cốt lõi
9.1 Định nghĩaPerception -> Reasoning -> ActionEnvironmental feedback là khác biệt so với chatbot
9.1 Inference-timeExtended ThinkingAgent nghĩ trước khi làm, tốn token nhưng tăng chất lượng
9.2 Kiến trúcTool Layer + MCPChuẩn hóa agent tools, tái sử dụng đa host
9.2 CheckpointState managementCheckpoint trước action để rollback an toàn
9.3 AutonomyThree-tier spectrumAgentic là sweet spot cho phần lớn workflow hiện tại
9.3 HITLHuman-in-the-LoopGate là cơ chế kiểm soát rủi ro, không phải điểm yếu
9.4 DemoFail -> Observe -> FixGiá trị thật nằm ở self-correction, không phải happy path
9.4 Log analysisReading logsexit_code, thinking duration, token count là tín hiệu debug
9.5 LimitsToken burn + loop trapThiết kế workflow để né điểm yếu thay vì chống lại
Next chapter: Chương 10 - ADD trong thực tế: multi-agent systems, orchestration patterns và safety boundaries khi nhiều agent phối hợp.
Next Chapter

Chuyển tiếp Chương 10

"Khi nhiều agents cùng làm việc - Orchestrator, Researcher, Coder, Reviewer -
nguyên tắc nào giúp hệ thống không conflict và không khuếch đại sai sót?"

LinhNDM — Nguyễn Đình Mạnh Linh | Bản trình chiếu này giữ đầy đủ nội dung trọng tâm của Chương 9 theo định dạng dành cho chuyên gia công nghệ.

1 / 1