AI 模型与基础设施
基于LLM的AI应用工作流编排系统
Speakers
Presentation Slides
Presentation Video
大型语言模型(LLMs)的快速发展催生了多种架构和框架,每种都引入了独特的AI工作负载和工作流。然而,高效编排、工作负载重用以及降低基于LLM的应用部署障碍等挑战仍然是企业面临的关键障碍。本议题将探讨英特尔的开源项目OPEA(企业AI开放平台)如何应对这些挑战。重点将放在GMC(GenAI微服务连接器)上,这是一种旨在优化AI工作负载的动态编排工具。