#把ChatGPT装进机器人大脑##ChatGPT装进机器人潜在问题#
科学家正把ChatGPT这类AI大脑,装进机器人身体里。从炒菜到泡咖啡,下一代机器人可能真能“听懂人话”了!
过去几十年,机器人擅长的都是“重复动作”:流水线装配、仓库搬运、餐厅炒饭,全靠精确指令一步步操作。打开冰箱做一顿晚饭这类操作,仍然是遥不可及的梦。
但现在,研究者尝试用大语言模型(LLM)赋能机器人,让它们拥有类似“常识”的语言理解能力。比如在厨房,机器人不再死板执行预设指令,而是能听懂“做个potato hash”这种模糊指令,从环境中找土豆、找锅、下锅煎——这些操作由语言模型生成,再转化为实际动作。
具体做法也不止一种:
- 南加州大学用“ProgPrompt”方案,让ChatGPT生成Python代码控制机器臂,执行具体动作;
- 谷歌团队用“SayCan”方法,先定义机器人会做哪些基础动作,再由语言模型挑选合适的动作组合应对任务;
- 普林斯顿团队甚至发现,AI有“类人类的迁移学习”能力,能靠理解工具的描述去操作新工具。
然而,LLM很强大,但也会“瞎编”答案;这种不可控的能力,让人很是担心。
研究者也强调,当前比较靠谱的方式,是将LLM生成的指令交由更保守的“传统AI”系统审查执行,从而防止“幻觉”。
更棘手的是数据偏见问题。有实验发现,一些AI模型会根据肤色做出带偏见的操作决策。训练数据里有什么,AI可能就学什么。这让我们对“AI进入现实世界”提出更多反思。
感兴趣的小伙伴可以阅读原文:网页链接
科学家正把ChatGPT这类AI大脑,装进机器人身体里。从炒菜到泡咖啡,下一代机器人可能真能“听懂人话”了!
过去几十年,机器人擅长的都是“重复动作”:流水线装配、仓库搬运、餐厅炒饭,全靠精确指令一步步操作。打开冰箱做一顿晚饭这类操作,仍然是遥不可及的梦。
但现在,研究者尝试用大语言模型(LLM)赋能机器人,让它们拥有类似“常识”的语言理解能力。比如在厨房,机器人不再死板执行预设指令,而是能听懂“做个potato hash”这种模糊指令,从环境中找土豆、找锅、下锅煎——这些操作由语言模型生成,再转化为实际动作。
具体做法也不止一种:
- 南加州大学用“ProgPrompt”方案,让ChatGPT生成Python代码控制机器臂,执行具体动作;
- 谷歌团队用“SayCan”方法,先定义机器人会做哪些基础动作,再由语言模型挑选合适的动作组合应对任务;
- 普林斯顿团队甚至发现,AI有“类人类的迁移学习”能力,能靠理解工具的描述去操作新工具。
然而,LLM很强大,但也会“瞎编”答案;这种不可控的能力,让人很是担心。
研究者也强调,当前比较靠谱的方式,是将LLM生成的指令交由更保守的“传统AI”系统审查执行,从而防止“幻觉”。
更棘手的是数据偏见问题。有实验发现,一些AI模型会根据肤色做出带偏见的操作决策。训练数据里有什么,AI可能就学什么。这让我们对“AI进入现实世界”提出更多反思。
感兴趣的小伙伴可以阅读原文:网页链接