Windows 下 Docker 使用 GPU 运行 vLLM 嵌入式模型 前言 最近需要在本地部署 Qwen3-Embedding-0.6B 模型,利用 vLLM 提供 OpenAI 风格的 Embeddings API。我的电脑是 Windows 系统,显卡为 NVIDIA GTX 1070,打算使用 Docker 容器运行模型以隔离环境。然而,Windows 上的 D
windows 端口代理 1.powershell # 10809 为vpn的代理端口 # 当前是只有http 和 https 走代理 $env:HTTP_PROXY="http://127.0.0.1:10809" $env:HTTPS_PROXY="http://127.0.0.1:10809" # 所有协议都走代理 $
记一次 Spring Boot 3 + JDK 21 集成 XXL-JOB 3.4.0 的“地狱级”踩坑实录 1. 背景与架构目标 在微服务架构中,我们希望实现: 调度中心(Admin):统一管理定时任务。 业务执行器(Java):动态注册到 Nacos,并由 Admin 驱动。 跨语言协同(Python):由 Java 执行器通过 HTTP 指令驱动 AI 推理任务。 核心技术栈:Spring Boot
unraid 安装ubantu 24.04.3 LTS 1.ubantu ios镜像地址 https://cn.ubuntu.com/download/server/step1 2.unraid 配置 勾去创建后启动虚拟机 -> 点击创建 ->
Electron 应用在 Docker bridge 网络下端口“假监听”问题完整复盘 关键词:Docker、Electron、NapCat、NTQQ、端口映射、bridge 网络、假监听、容器网络排障 一、问题背景 在一台 Linux 服务器上,我通过 Docker Compose 部署了 NapCat + LangBot,其中: NapCat 运行在 Docker 容器中 使用 b
【Docker 排错实录】Docker 端口映射正常,但局域网无法访问容器服务的真实原因 背景描述 在一台位于局域网内的 Linux 服务器(192.168.31.50)上运行多个 Docker 容器,其中包括: napcat(mlikiowa/napcat-docker) 其他常规服务(RocketMQ、Nacos 等) 遇到一个非常迷惑的问题: Docker 容器端口已映射,ipta
Nginx大文件上传的“诡异”413错误:一次配置作用域的深度探索 背景:那个令人困惑的413错误 最近在配置Nginx作为反向代理时,我遇到了一个令人费解的问题。我们有一个Halo博客系统,需要通过Web界面上传备份文件。当上传40MB左右的文件时,Nginx总是返回 413 Request Entity Too Large。 奇怪的是,我明明在配置中设置了允许2
Maven命令 1.删除本地某个jar包 mvn dependency:purge-local-repository -DmanualInclude="groupId:artifactId" 2.删除本地jar 并重新下载 mvn dependency:purge-local-repository -Dmanual
Transformer Lesson 1:神经网络到底在干什么? 你已经知道 自动求导 和 梯度下降,现在要理解: “为什么多层网络能拟合任何复杂关系?” —— 非线性激活函数 是关键! 如果没有激活函数👇 所有层都是矩阵乘法 🚨 无论堆多少层,本质=线性方程 → 无法拟合复杂关系、对话情绪、人格风格 常见激活函数区别
Numpy 1.1 创建 ndarray(Numpy 的核心数据结构) Numpy 中所有数据都是 ndarray(n-dimensional array,多维数组)。 是深度学习中所有 Tensor 的原型。 import numpy as np # 从列表创建 a = np.array([1, 2, 3]