总体定位
本书面向所有需要“测试”的人:开发者、测试工程师、质量教练,甚至是非技术角色。作者 Mark Winteringham 用 12 章、3 大部分,系统阐述如何把大语言模型(LLM)变成真正有用的测试助理,既不盲目崇拜,也不一味排斥。
核心理念:M-T-C 三原则
原则 |
含义 |
关键词 |
Mindset 心态 |
把 LLM 视为“放大器”,而非“替代者” |
批判性、协作 |
Technique 技术 |
用 Prompt Engineering 做精准任务拆解 |
清晰、可迭代 |
Context 情境 |
用 RAG、Fine-tuning 把业务知识喂给模型 |
情境化、定制化 |
内容框架速览
Part 1 心态篇(第 1–3 章)
- LLM 能做什么?
- 不能做什么?
- 关键比喻:“Area of Effect” 模型——人-工具协作的半径越大,价值越高;反之越依赖工具越危险。
Part 2 技术篇(第 4–9 章)
章节 |
主题 |
技术亮点 |
4 |
AI 辅助开发 |
GitHub Copilot 与 TDD 结合,示范“红-绿-重构”循环 |
5 |
AI 辅助测试计划 |
用可视化/思维模型拆系统 → 精准风险提示 |
6 |
AI 生成测试数据 |
用 JSON / XML / SQL / OpenAPI / XSD 格式驱动 |
7 |
AI 加速 UI 自动化 |
按“微任务”粒度调用 Copilot + ChatGPT:PageObject、API 状态、断言 |
8 |
AI 支持探索式测试 |
自动生成测试章程、数据、缺陷故事 |
9 |
AI Agent |
用 LangChain4J 构建可链式调用的“数据助理”Agent |
Prompt Engineering 速查
- 四大战术:分隔符、结构化输出、假设检查、少样本示例
- 两大原则:写清晰指令、让模型“先思考再作答”
- 常见陷阱:幻觉、数据隐私、训练数据版权
Part 3 情境篇(第 10–12 章)
- RAG(检索增强生成)
- Fine-tuning
- 对比与融合
- RAG 轻量、实时;Fine-tuning 深度、成本高;两者可叠加。
亮点特色
- 实战代码:Java + JUnit5 + Selenium + Spring,GitHub 完整可运行。
- 模板丰富:可直接复制的 Prompt 库、Agent 脚本、数据生成 SQL。
- 真实场景:酒店预订系统贯穿始终,覆盖 UI、API、数据库、性能多维度。
- 风险导向:不空谈“AI 万能”,而以“先识别风险→再选工具→再验证结果”为主轴。
适用人群
- 开发者:想用 Copilot 写单测、补文档、改旧代码。
- 测试工程师:需要快速造数据、生成风险清单、写探索式测试报告。
- 质量教练:希望把 LLM 纳入流程,提升团队质量思维。
- 技术管理者:关注 ROI、数据隐私、AI 引入风险。
一句总结
把 LLM 变成“聪明实习生”:你定方向、它打下手,合力把测试做得更快、更深、更稳。