公司新闻

99.9%装配良率背后,视觉算法做了什么?

2026/4/23     浏览次数:    

柔性精密装配难在哪,视觉算法发挥着怎样的作用?

工厂里那些"又软又精"的零件——FPC柔性电路板、线束、连接器——组装环节为什么长期依赖人工,成为自动化升级最难啃的断点?

4月17日的直播间,易博智总经理童总与机器视觉算法团队负责人章博,从视觉算法的底层逻辑出发,把这件事讲透了:难在哪、为什么难、易博智怎么解决。

这场直播里,有概念、有案例、有数据,也有一个工程师对"什么是真正能落地的技术"的判断。

01 视觉算法是什么

易博智机器人3D视觉

很多人以为,给机器人装个摄像头,就是"视觉"了。

章博士在直播中给出了更准确的理解:视觉算法是让机器人在复杂场景中看到要做的事,理解场景并做出正确动作——不仅仅是加摄像头,更重要的是理解场景。

传统计算机视觉偏向特征提取,而易博智的方案更强调理解场景,能克服噪声、反光、材料变形等问题,给出可靠结果并支持机器人动作。

不是"看到"就够了,而是"看到以后还能做对"。

02 眼脑手是怎么协同的

易博智机器人

易博智IDO系统的底层逻辑是三个环节的实时闭环:

  • "眼" 负责感知——能识别多种物品,快速理解新来料的关键特征;

  • "脑" 负责决策——根据实时信息规划机械臂运动轨迹;

  • "手" 负责执行——通过力传感器反馈实时调整,确保动作正确。

以头部3C大厂平板测试环节中FPC与PCBA的耦合为例:眼睛看到平板结构输出关键信息,脑子规划轨迹,手执行动作并做二次修正。三者缺一不可。

真正有价值的,不是某一个模块强,而是这几个模块能不能在现场形成闭环。

03 良率是怎么做到99.9%?

FPC-BTB扣合良率从人工的95%提升到99.9%以上。

章博士用"系统工程"的视角解释:要提高良率,不能只盯着某一个环节优化,而是要以系统工程的思维看待整个链路——优化眼脑手每个环节,减少误判,考虑误差,迭代修正误差。

系统要具备自适应能力,能根据来料的不规则情况自主规划动作和路径。这正是AI赋能的核心体现。

高良率的本质,不是"某一步很惊艳",而是整套系统能不能把误差控制在可控的范围内。

04 30分钟换线是怎么实现的


很多人怀疑这是宣传口径。

章博士的回答是:这个问题能区分"能做Demo"和"能做产线"的差别。

为实现30分钟快速换线,需要将眼脑手环节平台化——眼睛能识别多种物品,决策能适应不同任务,夹爪能快速更换。关键在于:新产品来临时,眼睛能快速获取关键特征;算法能快速适应不同任务;调试流程标准化,不依赖个人经验。

快速换线本质上反映的是平台能力,而不是某一个人/环节的能力。

05 eBots的优势在哪?

章博士从四个维度总结了易博智方案的核心差异:

  • 感知更稳:能适应金属反光、材料变形等突发情况,给出可靠结果;

  • 控制闭环:运动控制采用实时修正误差的闭环方式,系统更鲁棒;

  • 系统集成深:眼睛、大脑和运动机构围绕同一目标协同工作;

  • 扩展性强:底层逻辑标准化,可快速适配医疗器械、汽车电子等多个行业;

在精密柔性组装中,整个具身智能系统稳定比单个环节出色更重要,要克服不确定性。好的技术要在现场解决良率和换线稳定性问题。机器视觉算法,是柔性组装工作的核心。

真正好的技术,最后一定要回到现场。下一期已经在路上,下期见。

返回上一步
打印此页
在线客服
在线客服:
400-1056-718

微信客服

应用案例

[向上]