seosamira99 發表於 2024-5-12 11:10:46

而传统AI更多的是被动观测

LLM可以帮助机器人更好理解运用到高级语义知识,自动化地分析自己的任务并拆分成具体的动作,这样与人类、与物理环境的互动更加自然,机器人也就显得更加智能了。 举个例子,让机器人倒一杯水,人类自动就会绕开室内的障碍物,但传统方式下,机器人并不具备“遇到障碍物水会打翻”这样的常识,经常会做错事,而大模型驱动的具身智能,就可以更好地理解这些知识,自动分解任务,不再需要工程师或者主人一步步地指导。 端 多模态——更丰富的“小脑” “具身”所相对的概念是“离身”从中可以看到,具身智能的实现依赖于身体的感知,不能脱离身体而单独存在。


人类具有眼耳鼻舌身意,说明对于物理世界的充分感知和理解,是意识和智慧的 欧洲手机号码列表 来源。,主要是“看”端计算机视觉)和“读”端文本NLP),这就使得智能体Agent缺乏对外部环境的通用感知能力。 以自动驾驶为例,无人车也是具身智能的载体,需要通过传感器、机器视觉、激光雷达等多种方式来感知物理世界的变化,成本昂贵,效果也不是很理想,至今依然没能实现L级别的自动驾驶量产。 多模态大模型,可以积累和分析D&D视觉、LiDAR激光、Voice声音等多维信息,基于真实交互,为具身大模型积累高质量数据数据,深度理解并转化为机器指令,来控制机器人的行为。


https://zh-cn.albdirectory.com/wp-content/uploads/2024/05/%E6%AC%A7%E6%B4%B2%E6%89%8B%E6%9C%BA%E5%8F%B7%E7%A0%81%E5%88%97%E8%A1%A8-1-1024x576.png


有了感知能力更丰富的“小脑”,具身智能自然也就能更好的理解物理世界。 端 精准决策——更灵活的躯干 试想一下,如果一辆无人车,行驶过程中道路上突然冲出一个物体,它只能等着人类来判断“当前是什么情况”,下达指令“应该干什么”,那黄花菜都凉了,万一冲出来的是人,那实在是太危险太不可靠了。 传统的机器人训练往往采取pffline离线模式,一旦遇到训练环境中没有出现过的问题,就可能掉链子,需要收集数据再重新迭代优化,这个过程的效率很低,也减慢了具身智能在现实中落地的速度。


頁: [1]
查看完整版本: 而传统AI更多的是被动观测

一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |