-
由
虚拟的现实创建于7月 16, 2025 需要 2 分钟阅读时间
1. 摘要
本文聚焦于三甲医院智能体(Agent)应用的构建路径,旨在突破传统单点人工智能(AI)工具的局限性,探索本地化大语言模型(LLM)与Dify低代码开源框架协同优化的创新范式。研究基于 Dify 平台搭建智能体应用体系,深入分析其在提升医院运营效率、保障医疗质量、改善患者体验等方面的核心价值,并系统阐述了应用落地过程中面临的技术、管理、伦理与法律挑战及其应对策略。本研究为医疗行业的智能化转型提供了可复用的技术框架与实践参考。
【关键词】 大语言模型;智能体;Dify;低代码开发;医疗智能化
2. 引言
福建某医院是一所集医疗、教学、科研、预防和保健为一体的三级甲等综合医院,年门诊量约280万人次,年出院病人约12.5万人次。
医院于2024年开始试点基于大语言模型的应用开发,但初期实践主要集中于单点应用和工具层面,存在“重模型轻场景”、“重技术轻流程”的倾向,导致实际落地效果与预期目标存在显著差距。
2025年初,DeepSeek等开源大模型的兴起极大促进了LLM开发生态的发展。在此背景下,智能体应用凭借其多模态交互、自动化任务分解及上下文感知等核心能力,展现出重构医疗业务流程的巨大潜力。
随着AI技术的日益成熟,AI开发框架的竞争焦点已从单纯的技术创新转向对实际业务场景的深度适配。能够提供完整企业级解决方案(涵盖权限管理、审计追踪、数据隔离等关键特性)的平台愈发受到企业用户的青睐。
鉴于此,医院决定基于本地化部署的大语言模型,引入开源低代码开发平台Dify,构建覆盖数字行政、科研教学、医疗质控等核心领域的智能体应用体系。
3. 智能体开发平台选型
2025年以来,以 Dify、RAGFlow 为代表的低代码开发平台凭借其工作流引擎和企业级服务能力逐步主导市场,而 LangChain、LlamaIndex 等传统开发框架的影响力相对减弱。
在支持本地化部署的AI大模型开发领域,主流的开源低代码平台包括 Dify、n8n 和 RAGFlow,其核心功能特性对比如图1所示。
图1–三大Agent框架功能特性对比
如图1所示,Dify 在工作流编排、可视化界面、大模型支持、检索增强生成(RAG)、智能体(Agent)开发等方面表现突出。
根据华东师范大学 X-la b实验室的 OpenRank 影响力评价指标,在2025年大模型开源开发生态Top 20项目中,Dify 已攀升至第三位。
在智能体框架(Agent Framework)项目的 OpenRank 排名中,Dify 更是跃居首位,成为当前最热门的 AI 应用开发平台,见图2。
图2–Agent开发框架OpenRank曲线
易用性和快速构建能力是当前 AI 应用开发的关键指标。
Dify 平台通过直观的可视化工作流编排显著降低了技术门槛,并提供完善的企业级安全管控方案,有效满足了医疗数据安全性、合规性以及快速构建智能体的需求。
因此,医院最终选定基于 Dify 平台构建智能体应用体系。
4. Dify技术路线
Dify 致力于打造面向特定领域的智能体应用,为 LLM 在医疗场景的落地提供强大支撑。
作为一个开源的、面向生成式 AI 应用开发的全栈式平台,Dify 内置了构建 LLM 应用所需的关键技术栈。其通过模块化设计、端到端流程编排及企业级能力,旨在帮助用户高效构建、部署和管理智能应用。
Dify的技术架构如图3所示。
图3–Dify开源框架应用技术栈
4.1. 智能体框架(Agent Framework)
Dify 作为一款低代码智能体框架,支持基于 LLM 函数调用或推理执行(ReAct)机制进行 Agen t定义,并可灵活添加预构建或自定义工具。
其内置超过50种工具(如信息检索、图像生成、数学计算等),使Agent能够胜任更复杂多样的任务,便于用户构建功能全面的智能助手。
4.2. 工作流引擎(Workflow Engine)
Dify 提供可视化的低代码工作流编排工具,支持将复杂任务拆解为简单节点并按逻辑组合,有效降低开发复杂度及对提示词(Prompt)的过度依赖。
用户可通过拖拽和配置功能模块,像搭积木一样构建复杂的AI工作流程,无需深入的编程知识。其内置丰富的模板和示例,为开发者提供参考,加速项目开发。
4.3. 检索增强生成(RAG Pipeline)
RAG 知识系统是 Dify 的核心组件,旨在解决 LLM 的知识局限性及“幻觉”问题,它管理从文档提取、处理到知识检索的全流程。
Dify 的 RAG 功能支持多种索引方式、文档处理策略及检索算法,可满足多样化场景需求,为应用提供精准、丰富的信息来源。
4.4. Prompt开发环境(Prompt IDE)
Dify 的 Prompt IDE 为开发者提供了直观、便捷的界面,支持对不同提示词方案进行测试、优化和效果实时预览,便于快速确定最佳方案。同时,该环境支持团队协作功能,允许多个成员共同参与提示词的设计与优化,提升开发效率与质量。
4.5. 大模型运维(LLMOps)
Dify 的 LLMOps 功能支持对应用程序的日志和性能进行持续监控与分析。开发者可通过收集和分析生产环境数据及用户反馈(如标注信息),深入了解应用运行状况,识别潜在问题,并据此持续优化提示词、数据集及模型配置。
4.6. 后端即服务(BasS)
Dify 的所有核心功能均提供相应的 API 接口,可便捷地将其集成到医院现有的业务系统中。无论是开发 Web 应用、移动应用还是改造传统业务系统,均可通过调用 Dify API 快速获得强大的 AI 能力支持,实现与现有架构的无缝对接。
5. LLM + Dify 平台构建
5.1. 系统架构设计
系统采用分层解耦架构设计,各层级间通过高速网络通道进行通信,以满足医疗AI系统对高可靠性和可扩展性的需求。LLM 和 Dify 平台均部署于本地服务器集群。
该集群包含两个计算节点,其中一个节点配备16张 NVIDIA A100 GPU,一个节点配备8张NVIDIA A100 GPU,在此基础上部署了DeepSeek-R1-671B、Qwen2.5-VL-72B、Qwen3-235B-A22B、BGE-M3以及BGE-Reranker等模型作为基础模型支撑。
Dify 平台采用高可用架构部署:通过两台 Nginx 服务器实现负载均衡,并由两台应用服务器承载 Docker 容器化环境和 Dify 服务,共同保障服务的负载均衡与高可用性。
具体部署架构如图4所示。
图4-本地LLM+Dify开发平台部署架构图
5.2. 智能体应用开发实践
Dify 低代码开发平台简单易用,医院IT工作人员无需复杂的编程技术和编程经验,经过简单的培训即可上手开发智能体应用。目前,医院基于Dify平台开发的智能体应用覆盖四大核心场景:
1. 行政提效:
- 合同审查智能体:自动识别合同条款风险,规避合规隐患。
- 财务报销助手:对接钉钉系统,智能调度资源,显著缩短报销流程耗时。
2. 科研创新:
- 科研标书审查智能体:自动校验标书格式规范,降低错误率。
- 麻醉教学智能体:结合病例库和规培生实际情况生成个性化教学教案。
- 文献翻译分析工具:快速定位研究热点,大幅节省文献处理时间。
3. 辅助诊疗:
- 麻醉风险评估智能体:整合患者多维度数据,生成个性化风险评估报告。
- 临床药物试验筛选智能体:基于RAG技术精准匹配受试者,提升招募效率。
- 抗菌药物推荐智能体:依据最新指南、专家共识及患者个体情况,推荐合适的抗菌药物方案。
4. 患者服务:
- 互联网智能客服:实现智能导诊、报告解读及分诊引导,有效缓解门诊压力。
- 健康管理助手:提供个性化慢病随访方案及体检报告解读服务,优化患者就医体验。
上述应用已在行政、科研、临床及服务领域形成体系化赋能,有效推动了医院运营效率与医疗质量的提升,未来计划持续扩展应用场景并深化应用效果。
5.3. 提示词工程优化策略
在医疗决策支持场景中,确保大语言模型(LLM)输出信息的准确性和可靠性至关重要,其关键在于提升提示词的精确性、上下文相关性与约束明确性。
医院应遵循以下核心原则进行提示词设计:
- 明确角色与任务定义:清晰界定 LLM 的身份(如“辅助决策的临床信息专家”)及其需执行的具体任务(如“基于特定患者信息进行禁忌症筛查”)。
- 提供结构化背景信息:输入应包含充分且结构化的患者关键数据(如年龄、疾病分期、病理类型、既往病史)、具体的临床问题(如“评估该患者使用某药物的风险”)以及明确所需的信息类型(例如:风险分析、禁忌提醒、治疗建议)。
- 强调关键约束与规范:明确限制 LLM 的知识来源(如“仅依据2024年NCCN最新版指南”)和输出要求(如“避免任何推测性内容”、“所有关键结论必须标注具体证据来源”)。
- 提供输出样本示例:给出符合要求的输出格式和内容示例,直观展示期望的结果样式和信息详略程度。
实施迭代测试与专家验证:该环节至关重要,需生成不同提示词变体下的输出结果,并由医学专家评估其在准确性、临床相关性及安全性方面的表现,并基于评估反馈,持续微调提示词的措辞、信息密度和输出格式规范,最终确保提示词能够稳定引导 LLM 生成符合临床标准、安全可靠的辅助决策信息。
5.4. 性能评估与优化
为确保即将上线的智能体应用能够提供高效、稳定的服务体验,在正式部署大语言模型服务之前,对其进行系统性的性能评估与深度调优至关重要。
当前,针对生成式 AI 应用的性能评测,业界普遍采用标准化的性能基准测试方法。该类测试主要关注首 Token 响应时间(Time-To-First-Token, TTFT)、Token 间延迟(Inter-Token Latency, ITL)、每秒输出 Token 数(Output Tokens Per Second, OTPS)以及每秒请求数(Requests Per Second, RPS)等关键指标,用以量化系统在高并发压力下的吞吐能力。
为此,本研究引 入LLM-Benchmark 这一专业工具。该工具专为模拟多并发场景设计,能够全面评估LLM服务在不同负载下的响应能力、处理效率及整体稳定性,为后续模型的部署决策(如资源配置、容量规划)及精准的性能优化提供关键数据支撑。
在性能优化层面,核心问题在于平衡吞吐量(Throughput)与延迟(Latency)。
为实现硬件资源的高效利用,首先要合理选择模型规模,在模型能力与推理效率间寻求最优平衡点;其次采用张量并行技术,将模型层内权重张量分布式切分,使计算负载合理分配到多个GPU上并行处理;最后,还需优化关键运行参数配置,包括输入/输出 Token 长度限制以及并发请求数上限等。
通过严谨的基准测试与精细化的参数调优,可为智能体应用上线后高性能、高可靠运行提供坚实保障。
5.5. 应用效果评估
医院目前已开发并上线21个智能体应用,涵盖数字行政、科研教学、辅助诊疗和患者服务等核心场景,其应用平均开发周期不超过3个工作日,充分体现了“低代码+医疗”融合创新的高效价值。
具体效果如下:
- 数字行政:合同审查智能体通过自动风险识别,将合规审核效率提升60%以上。
- 科研教学:药物临床试验筛选智能体将受试者匹配周期从周级压缩至小时级,知情同意书质控合规率达100%;文献翻译分析工具帮助青年医生节省约40%的文献研读时间成本。
- 辅助诊疗:麻醉风险评估智能体通过生成个性化方案,有效缩短了术前准备时长。
- 患者服务:互联网智能客服的科室匹配准确率达92%,成功分流部分轻症患者至线上门诊,缓解线下压力。
整体而言,智能体系统通过流程重构、决策增强、资源优化及合规保障四重机制,在提升运营效率、保障医疗质量、改善患者体验方面形成了系统化的价值输出,为医疗机构智能化转型提供了可量化、可借鉴的实践范式。
6. 面临的挑战与对策
医院依托 Dify 低代码平台和本地大语言模型实现智能体的敏捷开发与灵活迭代,赋能多场景智能化转型,但其从“可用”到“好用”还面临一系列不容忽视的挑战。
6.1. 技术能力挑战
在技术层面,LLM 的落地应用面临诸多挑战,涵盖模型选型与调优、RAG 开发与幻觉控制、Dify 开发与运维、高质量知识库及知识图谱构建等关键环节。
基于 LLM 的应用开发和运维属于技术密集型工作,对相关技术的理解深度要求较高。同时,LLM 技术本身的快速迭代特性,进一步要求医疗机构的技术人员具备较强的综合技术能力和持续学习能力。此外,技术人员还面临着跨部门协同压力,医疗场景固有的高度专业性、严格合规性及极低容错率,与开源技术的通用性之间存在显著鸿沟,这要求技术人员不仅需精通 AI 工程,还需深入理解医疗合规要求及临床业务知识,并与临床团队进行深度协作,以验证输出结果的准确性。
6.2. 数据治理挑战
LLM 的性能表现高度依赖于其所训练数据的质量。然而,当前主流的开源 LLM 普遍缺乏在专业医疗数据上的充分训练。为弥补这一不足,检索增强生成(RAG)技术常被应用于医疗领域,其效果很大程度上取决于所依托医疗知识库的质量。然而,医疗健康数据普遍具有类型多样、碎片化、标准化程度低以及异构性强等特征。尤为关键的是,医疗数据涉及高度敏感的个人健康隐私信息,其采集、处理和使用受到《中华人民共和国个人信息保护法》、《中华人民共和国数据安全法》及《医疗卫生机构网络安全管理办法》等法律法规的严格约束,这使得医疗数据治理面临严峻且复杂的挑战。
6.3. 管理流程挑战
LLM 深度整合至医院核心信息系统(如HIS、HRP等),远非简单的技术接入。这首先涉及复杂的接口开发工作,需要打通与异构系统(如LIS、EMR)的数据壁垒,并确保符合医院相关安全与标准要求。其次,必须对现有业务流程进行再造,重新设计 LLM 介入后的诊疗、管理、决策流程,如智能分诊、医嘱辅助、病历质控等,这牵涉多部门协作与工作模式的重大调整,实施阻力与技术难度并存。再者,管理人员面临显著的技能鸿沟,亟需掌握 LLM 操作、结果解读、风险识别及伦理审查等新能力,这要求医院投入资源开展系统化、持续性的培训,并建立相应的使用规范与问责机制。
6.4. 投入产出挑战
部署 LLM 并保障其高效运行,是一项资源密集型任务,涉及多项关键环节:初始模型部署、持续的维护优化、频繁的更新迭代以及支撑其运行的强大算力基础设施。这些环节的综合投入常达百万元人民币量级,因此,在决策引入 LLM 技术前,必须审慎评估其长期潜在价值。
核心问题在于,LLM 应用所带来的运营效率提升或长期成本节约,能否抵消高昂的初始及持续性投入。该问题无法短期定论,需通过建立严谨的量化模型,对投入成本与预期收益进行跨周期、精细化的成本效益分析,确保技术投资的合理性与可持续性。
6.5. 伦理与法律挑战
伦理层面,主要面临患者隐私保护与决策可解释性双重挑战。
医疗机构必须建立严格的隐私保护机制(如数据脱敏、访问控制),并在系统设计中确保医生对最终诊断和治疗决策的主导权。智能体设计应保留医生审核及修正输出结果的闭环流程。
同时,需制定明确的管理制度,界定智能体辅助诊疗失误的责任主体。法律层面,主要挑战在于数据合规性与监管框架的缺位。LLM对敏感医疗数据的采集、处理及共享必须严格遵守“最小必要原则”与“知情同意原则”。
此外,LLM 因技术局限性可能生成存在准确性偏差的医疗信息或诊疗方案。若此类输出未经规范的临床验证与审批流程即被使用,可能违反现行医疗法规,甚至传播错误知识,引发医疗纠纷和实质性法律风险。
7. 总结与展望
本研究实践表明,以 Dify 为代表的低代码平台能有效支持 RAG 等关键技术的开发,显著加速医疗智能体的构建进程,促进医疗 LLM 应用的孵化并充分释放其场景价值。
为充分释放 LLM 潜力并有效管控潜在风险,医院管理者亟需系统应对数据治理、技术可靠性保障、业务流程重塑及成本效益平衡等核心挑战,着力突破技术、管理与伦理交织形成的多重障碍,构建跨学科(医学、信息学、法学、管理学)协作机制与制度性支持框架。
展望未来,随着大模型性能的持续提升,医疗LLM应用将从技术探索阶段迈向临床深度集成与多模态融合。其发展将聚焦于安全可控性、多模态协同能力及场景闭环实现,从而推动诊疗效率和个性化医疗水平的全面提升。同时,伴随 Dify 等低代码平台智能化程度的深化以及 Agent 架构的持续演进,医疗 LLM 有望向“临床协作体”方向发展,支持跨科室的协同推理与动态规划,最终实现从单点工具到全生态医疗智能体的跃迁。
- 无标签
添加评论