想不想拥有一个完全属于你自己的”小爱同学”或”小艺”?今天我来教你用开源项目 OddAgent,从零开始搭建一套智能家居意图识别系统。 一、前言 清晨,你刚睁开眼,窗帘自动缓缓拉开,温暖的阳光洒进房间。你随口说一句”我起床了”,灯光从暗淡的夜灯模式切换到柔和的晨光,咖啡机已经启动——这不是科幻电影,而是智能家居正在实现的未来。 然而,当你想要DIY一套完全可控的智能家居系统时,往往面临两难:要么选择米家、HomeKit 等封闭生态,功能受限于平台;要么自研整个系统,从设备协议到AI对话,技术门槛高得离谱。 今天要介绍的 OddAgent 项目,为我们提供了一条中间路线——它专注于意图识别,你可以对接任意品牌的设备,只需专注于实现具体的业务逻辑。 二、方案介绍 2.1 什么是 OddAgent 概念 定义 OddAgent 一个通用的意图、指令识别框架,基于 LLM 实现自然语言理解 Intent(意图) 用户想要完成的操作,如”打开客厅灯” Slot(槽位) 意图中的关键参数,如房间”客厅”、设备”灯” Tool(工具) 实际执行操作的接口,如控制灯的 API 配图 1 展示 OddAgent 识别用户语音/文字指令的流程图 OddAgent 的核心能力可以用一句话概括:“只负责听懂你要什么,不负责具体怎么干。” 它把意图识别做到极致,把功能实现交给开发者。 2.2 核心特性 2.3 为什么选择 OddAgent 对比自研 NLU 系统: 维度 自研 NLU OddAgent 开发周期 3-6 个月 1 […]
智能体
今天的这个测试是因为上周用Open WebUI搭了一个简易的知识库(具体看我上周发的那篇文章),然后产品感兴趣了,再来用Dify这个相对企业级、产品级的系统来正式搭一个企业知识问答系统而做的测试。由于需求是从LLM大模型、Embedding模型、Rerank模型,以有Dify平台全套都必须是私有化部署,且不能使用Docker,全部是手动代码部署,因此,整个过程较复杂,也走了一些弯路,所以整个内容篇幅较长。为省流,直接上结论。 一、省流:关键结论速览 结论 需注意的是,Open WebUI 和 Dify 目前所使用的 embedding 模型不同,这是造成测试结果存在差异的一个重要因素。 测试体验环境 二、现状与挑战:Open WebUI 知识库的局限 前期,我们基于 Open WebUI 搭建了一个简易的知识库。但由于 Open WebUI 并非专业用于知识问答的平台,其功能较为简陋,难以满足企业级产品的知识问答需求: 针对以上种种问题,经过与两位领导的初步讨论,我们启动了对 Dify 的预研工作,期望借助 Dify 的工作流机制来解决 Open WebUI 知识库存在的这些问题。 三、Dify 的解决方案:灵活性与强大功能的结合 Dify 的强大之处在于其高度的灵活性,主要体现在智能体和工作流两个方面: 四、Dify 部署之路:挑战与进展并存 在对 Dify 的优势进行充分了解后,我们来看看当前的部署进展情况。目前,Dify 的演示环境已经搭建完成,但在使用和优化方面仍有许多工作需要进一步探索。 整个部署过程并非一帆风顺。由于没有实体服务器,我们在 AutoDL 上租用了一台虚拟机进行部署。但由于 AutoDL 虚拟机存在诸多限制,导致我们遇到了不少问题: 因此,目前我们的部署是分布在几台不同的设备上: 通过一系列的配置工作,我们实现了这几台设备之间的互联互通。 五、Dify 平台的实战测试:与 Open […]