Meta FAIR 实验室近日发布了名为“Sparsh”的人工多模态指尖触觉感知技术,为机器人赋予近似人类的触觉感知能力,将在机器人操控领域带来革命性变化。
该技术采用自监督学习,利用46万+触觉图像进行预训练,支持多种视觉触觉传感器,显著提升机器人在触觉感知任务上的性能。
发布的Sparsh模型标志着AI触觉感知领域的重大突破,未来有望改变机器人与物理世界交互方式。
Sparsh模型采用自监督学习,预训练使用46万+触觉图像,无需人工标注数据,学习通用触觉表征。
Sparsh模型支持多种视觉触觉传感器,如DIGIT、GelSight2017和GelSight Mini,提升机器人在触觉感知任务上的性能。
Sparsh模型在TacBench基准测试平台上表现出色,在力估计、滑动检测等任务中即使使用1%标注数据也能取得满意结果。