Software Testing with Generative AI
作者: Mark Winteringham
语言: 英文
出版年份: 2024
其他分类: 人工智能
下载链接:
书籍均收集自互联网,仅供学习和研究使用,请莫用于商业用途。谢谢合作。

书籍摘要

总体定位

本书面向所有需要“测试”的人:开发者、测试工程师、质量教练,甚至是非技术角色。作者 Mark Winteringham 用 12 章、3 大部分,系统阐述如何把大语言模型(LLM)变成真正有用的测试助理,既不盲目崇拜,也不一味排斥。


核心理念:M-T-C 三原则

原则 含义 关键词
Mindset 心态 把 LLM 视为“放大器”,而非“替代者” 批判性、协作
Technique 技术 用 Prompt Engineering 做精准任务拆解 清晰、可迭代
Context 情境 用 RAG、Fine-tuning 把业务知识喂给模型 情境化、定制化

内容框架速览

Part 1 心态篇(第 1–3 章)

  • LLM 能做什么?
    • 生成测试数据、补全自动化脚本、辅助探索式测试。
  • 不能做什么?
    • 不会替你“思考质量”,需人工过滤幻觉。
  • 关键比喻:“Area of Effect” 模型——人-工具协作的半径越大,价值越高;反之越依赖工具越危险。

Part 2 技术篇(第 4–9 章)

章节 主题 技术亮点
4 AI 辅助开发 GitHub Copilot 与 TDD 结合,示范“红-绿-重构”循环
5 AI 辅助测试计划 用可视化/思维模型拆系统 → 精准风险提示
6 AI 生成测试数据 用 JSON / XML / SQL / OpenAPI / XSD 格式驱动
7 AI 加速 UI 自动化 按“微任务”粒度调用 Copilot + ChatGPT:PageObject、API 状态、断言
8 AI 支持探索式测试 自动生成测试章程、数据、缺陷故事
9 AI Agent 用 LangChain4J 构建可链式调用的“数据助理”Agent

Prompt Engineering 速查

  • 四大战术:分隔符、结构化输出、假设检查、少样本示例
  • 两大原则:写清晰指令、让模型“先思考再作答”
  • 常见陷阱:幻觉、数据隐私、训练数据版权

Part 3 情境篇(第 10–12 章)

  • RAG(检索增强生成)
    • 把需求、API 文档、缺陷库向量化,随用随查。
  • Fine-tuning
    • 用公司域内语料二次训练,提高术语准确率。
  • 对比与融合
    • RAG 轻量、实时;Fine-tuning 深度、成本高;两者可叠加。

亮点特色

  1. 实战代码:Java + JUnit5 + Selenium + Spring,GitHub 完整可运行。
  2. 模板丰富:可直接复制的 Prompt 库、Agent 脚本、数据生成 SQL。
  3. 真实场景:酒店预订系统贯穿始终,覆盖 UI、API、数据库、性能多维度。
  4. 风险导向:不空谈“AI 万能”,而以“先识别风险→再选工具→再验证结果”为主轴。

适用人群

  • 开发者:想用 Copilot 写单测、补文档、改旧代码。
  • 测试工程师:需要快速造数据、生成风险清单、写探索式测试报告。
  • 质量教练:希望把 LLM 纳入流程,提升团队质量思维。
  • 技术管理者:关注 ROI、数据隐私、AI 引入风险。

一句总结

把 LLM 变成“聪明实习生”:你定方向、它打下手,合力把测试做得更快、更深、更稳。

期待您的支持
捐助本站