英伟达(nvidia)免费开放了GLM-4.7的API
本帖最后由 btpan 于 2026-1-6 22:55 编辑NVIDIA NIM(NVIDIA Inference Microservices)是英伟达推出的 AI 推理微服务,用于把 AI 模型(尤其是大模型)快速、稳定、高性能地部署成可用的在线服务。现在又免费开放了GLM-4.7和minimax-m2.1的API,其实是差不多全模型目前都是api目前无限制随便调用minimaxai/minimax-m2.1
z-ai/glm4.7
deepseek-ai/deepseek-rl
gwen/qwen2.5-coder-32b-instruct
openai/gpt-oss-120b
google/gemma-3-27b-it
meta/llama-4-maverick-17b-128e-instruct
mistralai/devstral-2-123b-instruct-2512
超多免费模型使用……
在nvidia注册账号生成key
https://build.nvidia.com/models?filters=publisher%3Agoogle
然后请求地址使用
https://integrate.api.nvidia.com/v1/chat/completions
https://image.fatcattech.cn/i/2026/01/06/119nkl2.png
也可以在线用DeepSeek v3.2
https://build.nvidia.com/deepseek-ai/deepseek-v3_2 研究一下 GLM-4.7 好像又下架了 这么爽, 感谢分享 用过了,比较卡。估计用的人多https://cdn.jsdelivr.net/gh/master-of-forums/master-of-forums/public/images/patch.gif 在 claude code 里面用 特别卡,有些输出不出来
页:
[1]