v2.594.8038.35356 安卓免費版
v5.150.5106.538495 安卓免費版
v1.443 安卓免費版
v6.784 安卓版
v2.428.6532.108806 安卓版
v2.577.7952.943384 安卓免費版
v7.344 最新版
v4.696.8464 安卓漢化版
v3.430.2695.362082 安卓最新版
v3.149.2606.850491 最新版
v3.306.3307.853064 最新版
v3.356 PC版
v4.978.6942.300420 PC版
v3.157.4315.760430 最新版
v1.364.8271.334801 安卓版
v9.592.1016 最新版
v8.491.288 IOS版
v5.20.4619.608051 安卓免費版
v8.149.5399.429406 安卓最新版
v2.943.1789.2174 安卓版
v5.124.1441 安卓漢化版
v1.655.9002.205378 安卓版
v7.268 最新版
v8.479.6061 PC版
v7.352.3823 安卓漢化版
v5.966.8633.57384 安卓免費版
v4.19 安卓版
v3.786.521 安卓最新版
v6.746.5839 IOS版
v7.982.5281.940960 最新版
v3.656.8996.576690 安卓最新版
v7.393 IOS版
v1.851 最新版
v8.344 最新版
v6.762.5460 最新版
v4.836.6868.507978 安卓版
v1.27.9355 安卓免費版
v2.406.3580.395469 安卓最新版
v9.688.748.889535 PC版
v2.368.5588.766828 安卓最新版
v6.258.7014 安卓免費版
v7.789.9363 安卓漢化版
v3.351.1087.115330 安卓免費版
v9.743.9120.68132 安卓免費版
v6.763.1301.607287 PC版
v2.586.7250.534817 安卓最新版
v4.396.8141 最新版
v7.899 安卓最新版
v3.747.6266 IOS版
v7.520 安卓漢化版
v3.955.959 安卓免費版
v4.684.2060 安卓漢化版
v5.371.8654.9025 安卓版
v8.83.8993.453213 安卓最新版
v4.754 安卓漢化版
v5.474.8786.880078 PC版
v5.119.3157.738481 安卓最新版
v5.465.4128.973565 安卓免費版
v9.517 安卓漢化版
v2.874.5149.511821 最新版
v6.179.2223 IOS版
v3.776 最新版
v8.260.700.44413 安卓免費版
v9.655 安卓最新版
v1.482.3496.629922 安卓版
v5.533.836 最新版
v2.700 IOS版
v8.685.8839.625234 PC版
v1.285.6366.579884 安卓最新版
v5.917.3040.477611 IOS版
v9.450.9480.970289 最新版
v9.978.387.760575 安卓漢化版
v6.611 最新版
v3.737.6574.107821 安卓免費版
v8.797.7408.380628 安卓版
v5.789.419.470498 安卓最新版
v2.978 安卓免費版
v4.114 安卓免費版
v4.202 安卓版
v6.348.4508.344342 IOS版
万博官方manbext2.0
VLA(Visual-Language-Action)大模型到底能跑多快?在这篇 RT-VLA(Real-time VLA)论文中,来自 Dexmal 原力灵机(由范浩强等人联合创立的具身智能公司)的研究者公布了一个反直觉的发现:它可以非常快!
具体而言,对于常用的 Pi0 级别的模型(30 亿参数),在单张消费级显卡 RTX 4090 上最快可以跑到 30fps。这和大家对于 VLA 模型动辄要几十甚至上百毫秒的刻板印象形成鲜明对比。
为实现这点,研究者深入分析 Pi0 的模型结构,通过一系列优化把用时从开始的 100+ ms 进行数倍缩减(针对双视角,甚至已经达到 27ms),显著强于 openpi 里采用的基于 jax 的自动优化的结果。
此外,研究者基于现有结果探讨了未来的“实时”运行的 VLA 结构,设计出一个有潜力最高实现 480Hz 闭环控制的算法框架。目前,优化后的代码已在 GitHub 开源,全部实现均打包为一个只依赖于 torch 和 triton 的单一文件,大家可在自己的项目里 “开箱即用”。这是Dexmal 原力灵机继开源一站式 VLA 工具箱 Dexbotic之后的又一开源代码工作。
论文名称:Running VLAs at Real-time Speed论文链接:https://arxiv.org/abs/2510.26742GitHub:https://github.com/Dexmal/realtime-vla
解决什么痛点?
现在机器人 VLA 大模型动辄几十亿参数,虽然有不错的泛化能力,但是延迟问题总是绕不过。即使是在高端推理显卡上,高达百毫秒级别的推理时间让机器人的实时控制困难重重,就像一个人看见东西后要愣一下才做出动作。
如果我们能够把模型运行到和相机一样快的频率(25fps、30fps 甚至 50fps),那么就可以在完全不丢帧的情况下处理视觉信息,让 VLA 模型的实时运行成为可能。
如何实现?
Pi0 模型计算流程图示,它主要包括 1 个视觉编码器,1 个编码器和 1 个解码器;所有这些又可进一步分解为一系列的矩阵乘法和标量运算。
对于 Transformer 这类模型,当它进行单次推理(比如只处理一个问题或一张图片)时,其内部计算过程实际上是由一长串零碎的 “矩阵计算小任务” 组成;而像 Pi0 这种采用 “流匹配” 技术的模型,需要反复迭代十次才能得出最终结果,每一次迭代本身就包含几十层计算。这样算下来,整个推理过程涉及数百层、上千个操作。任务如此零碎,让计算优化变得异常困难。
本文研究者通过深入分析模型推理过程中的计算问题,融合和并行优化每一个计算步骤,清除了推理方面的大部分障碍,再加上其他方面的优化,最终把整个 VLA 模型跑进了所需的时间之内。
这就像给了 VLA 大模型一份 “高性能 AI 大脑调校指南” ;它通过一系列深入的底层优化,把笨重的 AI 大模型变成能跑实时任务的 “闪电侠”,并在此基础上,构想出一个能同时具备条件反射、视觉反馈和智能思考的下一代机器人控制系统。
效果展示
上图所示的任务是抓取一支自由下落的笔。 这个任务对反应时间的要求极为苛刻。机器人观察到笔开始下落后,必须在极短的时间内做出反应并在正确的时间启动抓取动作,快一点或者慢一点都会导致任务失败。
最终呈现的效果是 从 “看到笔” 到 “执行抓取” 的端到端总反应时间被缩短到 200 毫秒以内,这大概对应到一个 30 cm 左右的最短下落距离。而人类在这个任务上的一般表现也不过如此。
下一步规划
基于上述取得的成果,研究者设计了一套完整的、围绕 GPU 打造的机器人控制框架,它能驱动 VLA 大模型,像 “直播” 一样对机器人进行流式的实时控制,让机器人拥有 3 种不同速度的 “反应神经”:
超快反应(480Hz):处理来自力传感器等高速信号。就像你的手一碰到烫的东西会瞬间缩回,不需要经过大脑思考。这部分由模型的 “解码器” 负责,能每秒生成 480 次控制指令。视觉反应(30Hz):处理来自摄像头的画面。就像你看着球飞过来,用眼睛跟踪并判断落点。这部分由模型的 “编码器” 负责。智能思考(<1Hz):处理语言理解和任务规划。就像你在执行任务时,还能分心听一下队友的指令或者自己琢磨一下策略。这部分速度最慢,但赋予了机器人更高的智能。
通过分析与实验,这个框架下一步规划最高能以 480Hz 的频率生成机器人控制信号;这个速度,已经摸到了实现基于力反馈进行控制的门槛。
未来展望
机器人有没有可能达到 “又聪明又快” 的效果?这篇文章只是一个起点。针对未来不断增加中的边缘计算算力,研究者展望了更进一步的可能性:
“眼睛” 最快能有多快?从 30fps 到 60fps,甚至 120fps,是否有新万博体育:的任务变得可行?“大脑” 最大能有多大?在实时性约束下,我们是否可以从 3B 模型,走向 7B,13B 模型,甚至更大模型?“反应” 速度的极限在哪里?在 VLA 框架下,我们是否还可以建立亚毫秒、甚至微秒级的反馈回路?
从这篇文章出发,一个能够参与实时控制 VLA 的世界的大门正在被打开。
相关版本
多平台下载
查看所有0条评论>网友评论