国际精选inferenceglobal
Groq
高速 AI 推理,采用 LPU 架构,提供超快的模型响应。
常用模型
Llama 3.3 70B VersatileOpenAI GPT OSS 120BOpenAI GPT OSS 20BMetaLlama 4 Scout 17BWhisper Large V3 Turbo
标签
fast-inferencelpulow-latencyhardware
快速信息
区域
国际
状态
active最后校验
2026-03-24
高速 AI 推理,采用 LPU 架构,提供超快的模型响应。