在 2025年7月7日, 这 药品检验合作计划(PIC/S) 已发布 附件22 PIC/S GMP 指南。本新附件提供了关于使用 人工智能(AI)和机器学习(ML) 在 GMP监管环境.
此次更新解决了 附件11,但并未完全涵盖不断发展的AI/ML技术。目标是确保 安全、可靠、透明的人工智能集成 在制药业务中,特别是在直接影响 患者安全、产品质量和数据完整性.
附件22的主要条款
附件 22 是 新增内容 而不是修订,旨在用人工智能特定的要求补充附件 11。
附件严格限制了GMP中AI的使用范围: 仅具有确定性输出的静态 AI/ML 模型 可以部署在关键应用程序中。使用 动态模型、概率输出或自适应学习 是 在关键的 GMP 环境中被禁止.
生成式人工智能和大型语言模型 (LLM) 在关键操作中是不允许的。在非关键环境中,它们的使用只能在 人机交互(HITL)监督 由合格人员负责。
实施必须 多学科,涉及 质量保证 (QA)、数据科学家、IT 团队、中小企业和顾问人工智能生命周期的每个阶段——从 算法选择和训练到验证、测试和部署-必须是 风险知情、可追溯、有记录.
监管意图很明确:防止不可预测的人工智能行为,加强可解释性和可审计性,保护 数据完整性并确保 人类责任.
为什么重要
附件 22 显著提高了考虑使用人工智能的制药企业的合规要求。使用人工智能的公司 动态或自适应人工智能模型 可能需要 重新思考系统设计和策略. 要求 可解释性、测试数据独立性和可追溯性 也可能会增加 审计准备要求 和 需要 更紧密的跨职能合作。
关联
此更新对于以下方面至关重要:
- 监管和质量团队 确保符合 GMP 要求
- 数据科学家和 IT 专家 管理人工智能系统开发和集成
- 制药商 在 GMP 监管环境中规划或操作 AI 驱动的流程
定义和缩略词:
- 人工智能/机器学习:人工智能/机器学习——从数据中学习模式而不是遵循固定编程的系统。
- 静态模型:经过训练后不会改变的 AI 模型;是关键 GMP 应用中所必需的。
- 动态模型:持续学习/自适应 AI 系统;不允许用于关键 GMP 用途。
- 确定性输出:对于给定的输入,可预测、可重复的结果。
- 概率输出:即使输入相同,结果也不同;在关键用例中不允许。
- 生成式人工智能/法学硕士:以概率方式运行的内容生成模型(例如,文本或图像创建者)。
- HITL(人机在环):在非关键用途中需要人工审查或验证人工智能决策的监督机制。
- 可解释性:理解和解释人工智能决策和逻辑的能力。
- 测试数据独立性:使用与训练数据分离的数据集来客观验证人工智能性能。
常见问题解答
PIC/S GMP 指南中的附件 22 是什么?
附件 22 是 PIC/S 发布的新指南,其中规定了在 GMP 监管的药品制造中使用 AI 和 ML 的监管期望。
GMP 应用程序中是否允许使用动态 AI 或生成 AI 模型?
动态、自适应或概率型AI模型禁止用于关键的GMP应用。生成式AI和LLM模型只能在非关键应用中使用,并由人机交互(Human-in-the-Loop)进行监督。
为什么附件 22 关注静态和确定性人工智能模型?
静态和确定性模型提供可预测、可重复的结果,降低患者安全、产品质量和数据完整性的风险。
如何 RegASK 帮助公司 遵守 附件 22?
RegASK 提供人工智能驱动的监管情报和工作流程编排, 监视器 像附件 22 这样的新要求,将其与公司现有流程进行映射,并突出合规差距。我们的平台支持结构化文档、验证工作流程和专家洞察,帮助团队更快地适应并降低监管风险。