Implementing an AI Personal Assistant using NanoBot and OpenIM
介绍如何基于 NanoBot 与 OpenIM 搭建一个支持聊天与工具调用的 AI 个人助手,包括使用 Docker 部署 NanoBot 和 OpenIM、在后台创建机器人账号并配置 WebHooks、通过 NanoBot chat channel 接入对话和定时提醒等工具能力的完整实践流程。
Using vLLM deploy GLM OCR
使用 vLLM Docker 部署 GLM-OCR 目标:在单卡服务器上,通过 Docker 启动 vLLM 的 OpenAI 兼容服务,加载 ZhipuAI/GLM-OCR,支持读取本地挂载目录里的图片(file:///media/...)并输出严格 JSON,方便你直接解析字段。结论:当前链路下 PDF 不能直接作为 image 输入,需要先 PDF → 图片 再 OCR。 目录 1. 前置条件 2. 目录规划 3. (推荐)宿主机预下载模型:ModelScope download 4. 一键启动 vLLM + GLM-OCR(Docker) 5. 启动验证与常用检查命令 6. PDF 转图片 7. 调用接口:发票 OCR 并严格输出 JSON 8. 结果解析:如何取每个字段 9. 常见报错与一行修复 10. 可选优化 1. 前置条件1.1 GPU / 驱动 / Docker确保以下命令正常: 12nvidia-smidocker version 同时需要 NVIDIA Container Toolkit(保证容器能用 GPU)。 2....
Using the dify subworkflow
介绍如何在 dify 中将复杂工作流拆分为子工作流并发布为工具复用,以个人助手调用发票识别子工作流为例,涵盖子工作流创建、发布、主工作流中工具节点配置与运行测试的完整实践流程。
Deploying Step3-VL-10B using vLLM multi-GPU inference
介绍在 Ubuntu 22.04 + 多张 22GB GPU 服务器上,通过 vLLM OpenAI API Server 部署 Step3-VL-10B 模型的完整流程,包括 NVIDIA 驱动与 CUDA 配置、Docker GPU 环境搭建、ModelScope 模型缓存、vLLM 多卡 Tensor Parallel 启动参数以及接入 dify 工作流的实战案例。
Running the Funasr-Nano-2512 model locally
介绍如何在本地环境运行 Fun-ASR-Nano-2512 语音识别模型,涵盖环境配置、依赖安装、模型加载与调用,支持31种语言、7种中文方言和26种地区口音识别,适用于远场高噪声环境和音乐背景下的语音转写。
Using NLLB to implement language translation
介绍如何使用 Facebook NLLB-200 模型搭建基于 FastAPI 的多语言翻译服务,涵盖环境配置、依赖安装、模型加载、API 实现与测试,支持 200+ 种语言互译,并提供多语种翻译测试用例。
Using FastText to implement language identification
介绍如何使用 fastText 官方预训练模型搭建基于 FastAPI 的语言识别服务,涵盖环境依赖安装、模型下载、Web API 实现与调用示例,并展示多语种识别效果与置信度结果。
Use HAProxy to load balance CMPP Socket persistent connections
介绍如何使用 HAProxy 对 CMPP Socket 长连接进行负载均衡,包括 HAProxy 简介、安装配置、TCP 模式设置、源地址哈希会话保持、健康检查配置和验证方法,适用于多实例 CMPP 客户端场景。
Use One-API as an AI agent
介绍如何使用 One-API 作为 AI 代理服务,统一管理多个大语言模型服务商接口,转换为标准 OpenAI 格式。涵盖 Docker 部署、渠道配置、令牌设置、域名配置和客户端使用等完整流程,以阿里云百炼和 VS Code ai-commit 插件为例。
Use FastAPI MCP on Mac
介绍如何在 Mac 上使用 FastAPI MCP 工具,自动将 FastAPI 端点作为 Model Context Protocol (MCP) 工具暴露给 Cursor 等 AI 客户端,实现通过自然语言调用后端 API 接口,提升开发效率。









