当前位置:肿瘤瞭望>资讯>新知>正文

秦叔逵教授:30秒入组背后——看AI如何破解新药研发困局

作者:肿瘤瞭望   日期:2025/4/3 15:29:26  浏览量:600

肿瘤瞭望版权所有,谢绝任何形式转载,侵犯版权者必予法律追究。

随着智慧医疗技术的迅猛发展,人工智能(AI)和大数据科学正在深刻改变临床研究的面貌,推动其步入数智化转型的新时代。在此背景下,2025年3月15日,南京智慧医疗与临床试验学术论坛成功举办。本次论坛聚焦智慧医疗技术在临床试验中的应用与管理,旨在促进相关领域的学术交流与合作。中国药科大学附属南京天印山医院秦叔逵教授在会议上就“新药临床研究的数智化转型”话题进行了精彩分享,深入探讨了AI技术在临床试验设计、患者管理、数据分析等方面的潜力与挑战。

编者按:随着智慧医疗技术的迅猛发展,人工智能(AI)和大数据科学正在深刻改变临床研究的面貌,推动其步入数智化转型的新时代。在此背景下,2025年3月15日,南京智慧医疗与临床试验学术论坛成功举办。本次论坛聚焦智慧医疗技术在临床试验中的应用与管理,旨在促进相关领域的学术交流与合作。中国药科大学附属南京天印山医院秦叔逵教授在会议上就“新药临床研究的数智化转型”话题进行了精彩分享,深入探讨了AI技术在临床试验设计、患者管理、数据分析等方面的潜力与挑战。
 
 
AI医疗发展态势
 
近年来,人工智能(AI)技术和大数据在全球发展势头迅猛,ChatGPT、Deepseek、Grok 3、Manus等大模型平台不断涌现,特别是DeepSeek的开源爆火,一石击起千层浪,立即在全球产生巨大而广泛的影响,成为推动科技革命和产业变革的重要事件。因此,AI技术在医疗领域的发展和应用更是掀起了前所未有的浪潮,正在迅速改变传统的医疗实践和临床研究。
 
2024年11月,国家卫生健康委员会牵头制定了《卫生健康行业人工智能应用场景参考指引》,明确了AI在医疗领域的84个创新应用方向,积极推动医疗行业对AI的接纳与发展。全球顶尖的美国梅奥医院也开启了Mayo Clinic Platform战略计划,投资孵化AI医疗企业,推动医疗数据的深度挖掘和应用。
 
AI在医疗领域的创新应用日益广泛,全国已有超百家医院宣布积极部署AI医疗大模型。许多大型三甲医院也已着手与合作方共同建设医疗大模型。据统计,在全国已经发布的64个AI医疗大模型中,大医院的参与比例达到了30%,并且在生态中的地位愈发重要。AI行业热度持续攀升,医疗保健已成为AI极具潜力的应用领域,AI医疗新时代已然来临。
 
传统临床试验困境:成本、效率与代表性的三重挑战
 
新药研发是一条漫长且充满不确定性的道路,而临床试验作为药物研发的关键环节,正面临“三座大山”——成本困局、效率黑洞与代表性危机,严重影响着创新疗法的研发。
 
成本困局:高投入与高失败的双重压力
 
临床试验阶段所消耗的时间与投资成本约占总成本一半,其中Ⅲ期试验占总试验的60%。然而,候选药物在此阶段的淘汰率惊人:约90%止步于临床试验,仅不足10%最终获批。每项失败试验不仅意味着数十亿美元的损失,更导致资源错配,加剧药企的财务压力。
 
△新药研发过程(引自讲者幻灯)
 
效率黑洞:Eroom定律的“魔咒”
 
Eroom定律——即药物研发成本逐年攀升,而新药产出效率却持续下降。自20世纪50年代以来,每10亿美元研发投入所获批的新药数量以年均8.4%的速度递减,这一定律反映了制药行业面临的巨大挑战。
 
△Eroom定律(引自讲者幻灯)
 
代表性危机:人群多样性与资源分配的失衡
 
临床试验常忽视老年、女性及少数族裔群体,导致药物疗效与安全性数据存在偏差。同时,试验多集中于头部医疗机构,基层患者难以参与,经济因素也影响依从性,加剧结果偏倚。此外,在罕见病试验中,研究设计难以满足个体化需求,有限的资源投入使得试验所收集的数据也存在局限性。
 
AI赋能临床试验的突破
 
AI在临床试验中的深度应用,不仅优化了传统流程,更在多个关键环节实现了质的飞跃,为新药研发开启了全新的智能化时代。
 
试验设计:精准化与效率跃升
 
AI通过机器学习算法,能够迅速处理和分析海量历史试验数据,优化试验策略,确保试验设计的严谨性和可行性。例如,新加坡国立大学研究团队开发的CURATE.AI平台,通过患者的个体临床数据,动态生成个性化的剂量方案,在晚期实体瘤试验中,73.5%的事件考虑了AI的建议,遵循率达97.2%[1]。此外,AI还可以提高药物研发的准确性,减少无效试验,降低研发成本,有望逆转“Eroom定律”的研发效率困境。
 
实施运营:智能匹配与去中心化革新
 
传统临床试验受试者招募耗时费力,AI通过自然语言处理(NLP)和大语言模型(LLM)实现精准匹配。如TrialGPT模型,通过筛选患者与试验的契合度,使匹配时间缩短42.6%,准确率提升至97.2%[2]。未来,结合可穿戴设备和区块链技术,AI有望实现“去中心化招募”——患者通过智能设备实时匹配试验,30秒完成身份认证入组。
 
△AI在精准匹配受试者中的价值(引自讲者幻灯)
 
数据管理:自动化与多源整合
 
AI颠覆了传统人工录入模式,通过自动化采集电子病历、生物样本库、可穿戴设备等不同来源的数据,实现多源数据的无缝整合,构建以患者为中心的全面数据生态系统。这不仅减少了人工录入的错误,还极大地提升了数据采集的效率和质量。此外,AI还可以对临床试验数据进行实时监测和质量控制,及时发现并纠正数据中的异常和错误,确保数据的真实性和可靠性。
 
结果预测:从经验到模型的跨越
 
借助先进的机器学习和深度学习模型,AI能够对临床试验数据进行深度分析和预测。例如,在肿瘤免疫治疗领域,针对PD-1/PD-L1抑制剂响应率差异大的问题,Deep-IO模型通过分析病理切片与基因特征,预测准确率较传统生物标志物提升30%[3]。此外,分层交互网络(HINT)可模拟药物与疾病交互,预测试验成功率,为动态调整方案提供依据[4]。
 
△HINT框架(引自讲者幻灯)
 
总结分析:降低偏倚与高效输出
 
AI在临床试验的总结分析阶段同样发挥着重要作用。AI通过算法识别并纠正数据偏差(如抽样偏倚、标签偏倚),提升结果的公平性与代表性。在报告生成环节,自然语言生成(NLG)技术可输出符合监管要求的报告,自动嵌入森林图、Kaplan-Meier曲线等专业图表并解释统计结果,不仅提高了报告生成效率,还确保了报告的规范性和一致性。
 
AI在临床试验应用中的挑战
 
AI技术在临床试验中的应用虽然带来了诸多突破,但在实际落地过程中仍面临诸多挑战,包括技术、伦理、隐私和监管等多个层面,需要在推进AI应用的同时进行深入思考和妥善应对。
 
数字化壁垒:信息化建设的“最后一公里”
 
尽管AI技术在临床试验中展现出巨大潜力,但当前临床试验的信息化建设仍存在诸多不足。在实际操作中,仍然有大量的记录类文件以纸质形式存在,记录和监察过程耗时耗力,这一现状不仅制约了临床试验效率的提升,也使得AI技术在数据获取和处理上面临重重考验。
 
技术挑战:数据孤岛与算法偏见

数据孤岛
 
数据异质性:不同医疗机构的信息系统和核心基础设施存在较大差异,机构间数据格式不统一,导致难以跨平台协作;
 
数据共享难题:不同机构的电子健康记录(EHR)系统互不兼容,无法共享运算平台,导致数据资源无法有效整合。
 
算法偏见
 
数据集偏差:训练数据集本身缺乏代表性(如忽视少数族裔或老年群体),模型决策有失公允,导致对不同人群的治疗推荐出现偏差;
 
人类认知偏见:数据标注过程中的主观价值判断也会引入偏见,影响AI模型的客观性和准确性。
 
△AI应用的技术挑战——算法偏见(引自讲者幻灯)
 
伦理隐私:AI应用的底线与边界

伦理争议
 
公平性失衡:历史数据中的种族、性别、年龄等偏见被AI放大,影响治疗推荐;
 
责任归属模糊:AI决策失误时,开发者、医生或机构的责任界定不清;
 
医患自主权削弱:过度依赖AI可能剥夺医患共同决策空间。
 
隐私风险
 
匿名化失效:医疗数据即使脱敏,仍可能通过交叉验证被重新识别;
 
数据合规冲突:不同国家的隐私法规可能存在冲突;
 
隐私泄露:患者数据可能被泄露给其他机构或个人,引发二次滥用风险。
 
监管复杂性:标准滞后与动态适应
 
AI技术的快速发展与传统监管框架的相对静态之间,存在着明显的矛盾,这种矛盾给AI在临床试验中的应用带来了监管难题。AI模型依赖于持续学习和实时更新患者数据,但传统监管框架基于静态产品设计,要求“锁定”算法版本以确保可追溯性。这种冲突使得自适应AI(如在线学习)可能因数据变化自动调整参数,导致审批后的模型与原始版本不一致,增加了监管的复杂性和风险。此外,AI在临床试验中的角色多样,但监管机构对AI工具的分类(如医疗器械、辅助软件或研究工具)尚未统一,进一步加剧了监管的不确定性。
 
AI与人类协作的未来展望

AI的正确定位:协作而非替代
 
AI在医疗中的应用,应被明确定位为科技工具和重要参考,而非最终的解决手段。这意味着在临床实践中,AI可以承担数据分析、快速筛查等标准化、重复性工作,从而将医生从繁重的机械劳动中解放出来。
 
释放医生创造力:核心竞争力的升级
 
AI赋能医生三大核心能力:
 
复杂决策:通过数据支持优化诊疗方案;
 
创新研发:借助AI工具加速新疗法探索;
 
人文关怀:聚焦患者身心需求,提升医疗温度。
 
信任构建:人文关怀的不可替代性
 
尽管AI在医疗中的应用日益广泛,但人文关怀始终是其无法企及的领域。医学不仅仅是科学,更是人性的艺术。医生与患者之间的深层次情感沟通和信任构建,是AI所不具备的能力。AI虽然可以模拟人类的互动,但无法真正理解人类的情感和价值观,因此在未来医疗中,医生的人文关怀能力将显得尤为珍贵。
 
应对AI幻觉:培养批判性思维
 
AI幻觉是指AI可能会生成不准确或虚构的信息,这在医疗领域可能带来严重的后果。因此,医生和研究人员需要提高自身的判断力,培养“火眼金睛”和“淘金者思维”,学会甄别AI提供的信息真伪,确保医疗决策的科学性和准确性。
 
政策支持与监管:AI落地的关键保障
 
为了确保AI在医疗领域的可靠性和准确性,需要政府出台相关政策,建立完善的监管体系。这包括对AI模型的开发、应用和评估进行严格监管,确保其安全性和有效性;同时,加强AI技术在医药领域的伦理和法律研究,制定相关的伦理和法律规范,保障患者的权益和社会公共利益。
 
△AI相关的研究设计和报告规范(引自讲者幻灯)
 
参考文献:
 
1.Senthil Kumar K,Miskovic V,Blasiak A,et al.Artificial Intelligence in Clinical Oncology:From Data to Digital Pathology and Treatment.Am Soc Clin Oncol Educ Book.2023;43:e390084.doi:10.1200/EDBK_390084
 
2.Jin Q,Wang Z,Floudas CS,et al.Matching patients to clinical trials with large language models.Nat Commun.2024;15(1):9074.Published 2024 Nov 18.doi:10.1038/s41467-024-53081-z
 
3.Rakaee M,Tafavvoghi M,Ricciuti B,et al.Deep Learning Model for Predicting Immunotherapy Response in Advanced Non-Small Cell Lung Cancer.JAMA Oncol.2025;11(2):109-118.doi:10.1001/jamaoncol.2024.5356
 
4.Fu T,Huang K,Xiao C,Glass LM,Sun J.HINT:Hierarchical interaction network for clinical-trial-outcome predictions.Patterns(N Y).2022;3(4):100445.Published 2022 Feb 3.doi:10.1016/j.patter.2022.100445

本内容仅供医学专业人士参考


临床研究

分享到: 更多