导图社区 项目引入大模型分享
整个思维导图全面且细致地分享了在项目中引入大模型的相关知识,涵盖通用模型的选择、使用以及专项语音识别模型的特点和应用,为项目引入大模型提供了清晰的指导和参考。
编辑于2026-01-27 09:59:41项目引入大模型分享
通用模型
警情分析项目
Ollama + Qwen
核心概念:Ollama 是什么?
一句话解释: Ollama 是大语言模型(LLM)领域的 "Docker"。
docker
它不仅打包代码,还打包了代码运行所需的“土壤”(操作系统库、依赖包、配置文件等)。
在过去,要在本地电脑上跑一个大模型,你需要配置复杂的 Python 环境、安装 PyTorch、下载数十 GB 的权重文件、处理显卡驱动……非常痛苦。
Ollama 解决了什么问题?
它把模型打包成了一个简单的可执行文件。你只需要一个命令,就能下载、运行和管理各种开源大模型。它提供了一个统一的后端,把复杂的模型推理变成了简单的 API 服务。
对于开发者: 它就是一个随时待命的本地服务器。
对于业务: 它是我们智能大脑的“载体”。
为什么要用这套方案? (Why)
在警情分析场景下,我们没有选择 云端 API,而是选择了 本地部署 Ollama + Qwen
数据安全
警情数据包含极其敏感的公民隐私(姓名、电话、住址、案情)。
云端方案: 数据需上传至第三方服务器,存在泄露和合规风险。
Ollama 方案: 物理隔绝。模型运行在局域网内网服务器上,数据自主可控,完全符合公安网/内网的安全规范。
中文理解能力
Qwen (通义千问) 是目前开源界中文能力最强的模型之一。
它能准确理解复杂的中文警情描述、方言转写的文字、以及警务专业术语(如“两抢一盗”、“非接触性诈骗”等),这比许多开源模型(如 Llama 3)更懂中国警务。
成本与灵活性
零 Token 费用: 一次性投入硬件成本,后续无论是跑 1 万条还是 100 万条警情分析,软件成本为零。
灵活微调: 如果未来需要针对“反诈”做专门优化,我们可以基于 Qwen 进行微调。
快速上手:怎么用?
环境准备
安装 Ollama
拉取模型
模型选择
模型参数量(B = Billion/十亿)决定了它的智商,但也决定了它的速度。
参考
警情分析项目部署的是14B的
关系分析项目
核心概念:大模型扮演什么角色?
一句话解释:大模型是“人类语言”与“数据库代码”之间的翻译官。
解决的核心矛盾
用户侧:说的是自然语言,模糊且发散(如“坐过同一班火车的”)。
数据库侧:Nebula Graph 只认精准的、死板的代码(如 hctcx)。
以前的做法:只能靠死记硬背或精准关键词匹配,体验极差。
现在的做法:LLM 理解意图 -> 映射到 Schema -> 生成查询代码。
技术实现路径
第一步:信息组装
获取字典:从 Redis 拉取所有关系定义的 Schema。
数据清洗:关键动作。去除“xxx-模版”等对 AI 产生干扰的后缀,把干净的数据喂给 AI。
第二步:智能交互
提示词工程 (Prompt):设定人设(图数据库专家)+ 强制 JSON 输出 + 开启模糊语义匹配(告诉 AI “同火车” 等于 “火车同车厢”)。
模型参数:Temperature 设为 0.1,降低创造性,提高精准度。
第三步:防御验证
安检机制:核心创新。不盲信 AI。
查实底:执行 SHOW EDGES 获取图数据库真实存在的边。
取交集:将 AI 返回的代码与真实列表比对,自动过滤幻觉数据(如数据库里不存在的 hcdp)。
为什么这样设计?
语义泛化能力
传统正则无法穷举所有说法。Qwen (通义千问) 能理解“住在一起”可能意味着“同户”或“旅馆同房”。
系统健壮性
引入“防御验证”层,确保即使模型由幻觉,也不会导致后端程序报错崩溃
专项模型(语音识别)
专项模型(语音识别)—— 核心引擎 (FunASR)
核心定位:FunASR 是什么?
一句话定义:阿里巴巴通义实验室开源的端到端语音识别工具包。
功能特点
工业级模型库
非自回归模型,速度极快,识别准确率高
全链路能力
VAD (语音端点检测):自动切除静音片段(如 FSMN-VAD)。
ASR (语音识别):核心转写功能。
Punctuation (标点恢复):给转写出的文字自动加上逗号、句号(如 CT-Transformer)。
ITN (逆文本标准化):把“一二三”转成“123”,把“两千块”转成“2000元”。
多种推理模式
实时流式 (Streaming/Online):边说边出字,低延迟。
离线文件 (Non-streaming/Offline):上传录音文件,批量转写,精度更高。
2pass 模式:实时出字 + 句尾高精度修正(结合了快和准)。
部署方式
Docker
拉取镜像
命令
docker pull registry.cn-hangzhou.aliyuncs.com/funasr_repo/funasr:funasr-runtime-sdk-cpu-0.4.6
docker-compose.yml
version: '3.8' services: funasr-server: # 镜像地址:使用阿里官方提供的 Runtime SDK (CPU版) # 如果有 NVIDIA 显卡,请将 tag 改为: funasr-runtime-sdk-gpu-0.4.6 image: registry.cn-hangzhou.aliyuncs.com/funasr_repo/funasr:funasr-runtime-sdk-cpu-0.4.6 container_name: funasr-core restart: always privileged: true ports: # 暴露服务端口,C# 客户端将连接此端口 - "10095:10095" volumes: # 挂载本地目录,模型下载后会保存在这里,重启容器不用重新下载 - ./models:/workspace/models # 启动命令:加载 ASR、VAD、标点、ITN 等全套模型 command: > bash run_server.sh --download-model-dir /workspace/models --model-dir iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch --vad-dir iic/speech_fsmn_vad_zh-cn-16k-common-pytorch --punc-dir iic/punc_ct-transformer_zh-cn-common-vocab272727-pytorch --itn-dir iic/thudatalab_shasne_itn_zh --port 10095 --mode 2pass
启动容器
客户端功能
应用形态:基于 Windows 的桌面端应用程序 (Desktop App)。
开发语言
C# / .NET
选择理由:与 Windows 系统底层音频 API (WASAPI/NAudio) 交互最顺畅,开发桌面 GUI 最快捷。
界面