随着AI技术的进一步发展,监管机构可能会考虑多种方法来解决AI在医疗保健方面的安全性和有效性,包括当前如何使用国际标准和其他最佳实践来支持医疗软件的监管以及差异和差距。 AI解决方案将需要解决。一个关键方面是需要在AI的整个生命周期中生成现实世界的临床证据,以及可能需要其他临床证据来支持自适应系统。
在过去的十年中,针对软件的监管指南和国际标准已经出现,无论是作为独立的医疗设备还是将其集成到物理设备中的软件。这为软件制造商提供了要求和指导,以证明它们符合医疗设备法规并将其产品投放市场。
但是,AI可能会引入新的风险,当前在软件标准和指南组合中尚无法解决。将需要不同的方法来确保投放市场的AI解决方案的安全性和性能。在定义这些新方法时,应将当前的软件监管环境视为一个良好的起点。
在欧洲,医疗器械法规(MDR)和体外诊断法规(IVDR)包括一些可应用于软件的通用要求。这些包括以下内容:
制造商的一般义务,例如风险管理,临床性能评估,质量管理,技术文档,独特的设备识别,售后监督和纠正措施;
有关设计和制造的要求,包括设备的构造,与环境的相互作用,诊断和测量功能,有源和已连接的设备;
设备随附的信息,例如标签和使用说明。
此外,欧盟法规还包含特定于软件的要求。这些措施包括避免软件与IT环境之间的负面互动以及对电子可编程系统的要求。
在美国,FDA最近发布了一份讨论文件,其中提出了一项针对修改基于AI /机器学习的SaMD的拟议监管框架。它基于当前FDA上市前计划的实践,包括510(k),De Novo和上市前批准(PMA)途径。它利用了IMDRF中的风险分类原则,以及FDA利益风险框架,软件修改指南中的风险管理原则以及FDA数字健康预认证计划中的总产品生命周期(TPLC)方法。
在中国,国家医疗产品管理局(NMPA)制定了使用深度学习技术的辅助决策医疗设备软件指南。日本和韩国监管机构也发布了医疗保健中AI的指南。