• 01.宿主机安装环境准备工作首先你得获得一张支持VGPU功能的显卡,优先参考官方支持列表:https://docs.nvidia.com/vgpu/gpus-supported-by-vgpu.html 本文宿主机硬件及环境如下: 系统:PVE 8.4-1 (内核版本6.1) GPU:Tesla P4/P40 (使用17以上版本驱动需要手动修补,参考:https://gitlab...
  • 安装客户机驱动安装Guest_Drivers文件夹中,包含grid的相应驱动即可。 激活客户机VGPU驱动Windows下在powershell下以管理员运行如下命令。注意将IP替换为上一步中license服务器的地址 123456# 获取licensecurl.exe --insecure -L -X GET https://10.10.20.20/-/client-token -o &q...
  • 授权服务器更新日期:2025年12月3日 简介授权服务器是用于NVIDIA vGPU(虚拟GPU)技术中的授权管理组件,主要负责为虚拟机提供GPU使用许可。通过部署授权服务器,可以在虚拟化环境中合法使用NVIDIA显卡资源,实现GPU资源的虚拟化分配和管理。 本文档将介绍如何使用Docker快速部署NVIDIA vGPU授权服务器,以及相关的配置和注意事项。 参考资料 NVIDIA vGPU...
  • RSSHub更新日期:2025年3月14日 什么是RSSHubRSSHub是一个开源、简单易用、易于扩展的RSS生成器,可以给任何奇奇怪怪的内容生成RSS订阅源。它可以帮助我们将网站内容转换为RSS格式,方便我们通过RSS阅读器订阅和阅读。 Docker Compose部署方法(推荐)1. 安装步骤 首先下载docker-compose.yml配置文件: 1wget https://raw...
  • RSS阅读器Fluent Reader下载地址:https://github.com/yang991178/fluent-reader/releases/latest
  • LLM-Red-Team基本上都是采用逆向工程的方式获取的,因为都是采用的是国内的AI平台,所以获取起来比较方便,但存在思想钢印。 参考项目:https://gitea.yuil.cn/Mirrors/kimi-free-api 获取refresh_token 访问Kimi官网并登录。 打开浏览器开发者工具(F12)。 切换到Network(网络)标签。 刷新页面,找到一个带有refresh...
  • 使用Docker部署: 12345docker run -itd -p 3401:3000 --name=chatgpt-web \ -e BASE_URL=https://api.deepseek.com \ -e OPENAI_API_KEY=sk-xxxxxxxxxxxx \ -e CODE=xxxxxxxx \ yidadaa/chatgpt-next-web...
  • OpenAI兼容API代理 for Z.ai GLM-4.5这是一个为Z.ai GLM-4.5模型提供OpenAI兼容API接口的代理服务器。它允许你使用标准的OpenAI API格式与Z.ai的GLM-4.5模型进行交互,支持流式和非流式响应。 注意: 本项目来自fork OpenAI-Compatible-API-Proxy-for-Z二次开发 ✨ 主要功能 🔄 OpenAI A...
  • ChatGML2 是什么?ChatGML2 是一种对话语言模型,可以与GLM大模型进行对话。 它是一种开源的对话机器人,支持中英文双语问答,并且对中文做了优化。
  • Stable Diffusion 是什么?Stable Diffusion 是一种在潜在空间扩散(latent diffusion)的模型。它不是在高维图像空间中操作,而是首先将图像压缩到潜空间(latent space)中。 Stable Diffusion是目前最火的人工智能图像生成模型之一,仅通过文本描述就可以生成叹为观止的视觉效果。
1192021222337