首页
梁园区
睢阳区
永城市
夏邑县
虞城县
柘城县
宁陵县
睢县
民权县
示范区
首页
梁园区
睢阳区
永城市
夏邑县
虞城县
柘城县
宁陵县
睢县
民权县
示范区
民权县
>
正文
AMD |推出 vLLM
2026-05-16 19:06:25
新浪新闻
科技媒体 Wccftech 昨日(5 月 11 日)推出博文,报道称 AMD 推出 vLLM-ATOM 插件,在不改动现有 vLLM 命令、API 和工作流的前提下,提高 DeepSeek-R1、Kimi-K2 和 gpt-oss-120B 等大语言模型推理性能。AMD 本次推出的 vLLM 插件提供了一套更贴近 AMD Instinct GPU 的推理优化方案,尽量不改变开发者现有使用方法,让用户继续使用原有 vLLM 命令、API 和端到端工作流,而插件会在后台接管优化。vLLM-ATOM 插件重点面向 Instinct MI350、MI400,以及 MI355X 等 GPU。从架构上看,vLLM-ATOM 分成 3 层:对企业和开发者来说,这套办法的核心价值不只是“更快”,还在于部署门槛更低。AMD 把它包装成“零学习成本”,意味着现有基于 vLLM 的服务流程理论上可以平滑迁移到 AMD 后端。与一般“单次调用”推理工具不同,它更指出请求调度、KV 缓存和连续批解决,适合企业把模型做成长期在线服务。该插件支持多个模型,包括 Qwen3、DeepSeek、GLM、gpt-oss、Kimi 等,并覆盖 MoE、混合 MoE、稠密模型,以及文本加视觉的 VLM 场景。IT之家注:vLLM 是面向大语言模型安排的开源推理框架,重点优化高并发服务场景下的吞吐和显存利用率。该插件声援的代表模型包括 Qwen3-235B-A22B-Instruct-2507-FP8、DeepSeek-R1-0528、openai / gpt-oss-120b 和 amd / Kimi-K2.5-MXFP4。
<
上一篇:天舟十号发射<在>即 我国天地货物运输体系将如何发展
热点排行
0
学会可轻松赚大钱?当心数字技能培训这些猫腻
0
广东逾50个镇街遇暴雨 最大雨量逾116毫米
1
"突发,马斯克xAI解散了!"
2
<滇藏公>路上的德钦县城为何搬迁?
3
AI邪修时刻!Meta联手MIT投毒
4
十年接力“西部助学” 杭|州新阶层人士续写山海情长
5
北京“苹果树妈妈”:16载守护16个孩子 无血缘亦至亲
6
{兰州新区全链赋能丝路“甘味”香飘海内外}
7
日本民众:尊重历史 绝不能放弃"宪法第"九条
8
【四部门发文带动人工智能与能源双向赋能】
9
这些字词,为2025“画像”
今日商丘
新浪微博
商丘网
商丘日报