中文 英语
18lickc新利
的意见

嵌入式智能边缘预见性维护

如何处理大规模工业4.0分析所需的数据量。

受欢迎程度

历史上在全面的生产环境中,最好的一个公司的资产是机器操作员的经验,当他们有能力预测何时维护是必需的。工厂经理报告任何异常行为如哗啦声或叮当作响的机器,导致维修人员检查。今天,自动化水平大大减少了操作员的能力检测即将失败和大部分的维护计划,而不是预测,或在某些情况下不注意或忽视,导致不必要的停机时间。

然而,最近全球COVID-19大流行已迫使更多的无人值守或远程参加机械操作,用最小的现场操作和维护人员减少。因此,对于工厂经理,提高机械自动检测和诊断能力本身来预测故障现在是一个战略优势。

方法预测和健康管理(榜单)和预见性维护计划4.0 (PdM4.0)已经存在了数年,但现在已经从工厂经理的观察名单优先级列表。的目标是优化和及时的维护操作自动化和远程human-in-the-loop决策。

物理加工的目的是收集和分析数据,提供一个实时状态估计其剩余设备的健康有用的一生(原则),发现异常和迫在眉睫的故障诊断的算法。相关的经济利益包括延长设备的寿命和减少运营成本。

PdM4.0, 4.0的一部分行业和工业物联网(IIoT)倡议,旨在提供更多设备的自主权,插装多个传感器的数据收集,利用数字信号处理、机器学习、深度学习工具预测失败和触发维护活动。

标准开发与词汇、演示和指导方针IEEE 1451、1232年,ISO 13372系列,13374,13380,13381,13373年为维护4.0提供的共同点。

图1提供了路径PdM4.0计划维修,,很明显,方法PdM4.0成熟水平的增加。

无花果。1:PdM4.0预见性维护水平。来源:普华永道

挑战

然而,尽管榜单和PdM4.0有明确的意图和提供一般建议,其实际的实现是没有完全意识到,需要一套技能没有现成的植物或维护经理。充分利用榜单和PdM4.0必须考虑以下问题:

  • 首先,当建立预见性维护的业务用例实现,应把重点放在减少风险的具体问题。引发一个问题:什么是关键资产,可能会失败?
  • 第二,许多植物仍然有机械建立有限的连接,因此,数据收集不是现成的。引发一个问题:我们如何仪器机械更多的传感器能够连接到信息技术(IT)在不影响其可靠性、安全性、和安全吗?
  • 第三,数据收集和沟通时,下一个挑战是如何使用它。引发一个问题:如何将数据分组检测,预测,和减少故障的发生?

大部分时间没有明显的答案,最初的简单的想法是收集所有工厂和机械生产的数据,这些数据移动到内部数据中心的云,使用数据分析,试图找出一些信息。也被认为是批处理数据。

无花果。2:预见性维护数据流从领域到云。

图2显示了漏斗云和不同数据源的数据,有助于形成预测维护的信息。

并不是所有的工厂和机械数据都是平等的。有检验报告等非结构化数据,维护日志,原材料和批处理组织,相关数据用于预测维护。有结构化数据来自企业自动化技术像ERM,像她们,和MES,提供另一个的信息来源有资格机械条件、工作负载和使用。这也是批量数据。

最非结构化的信息来自于传感器连接到边缘设备,数据流是经常在毫秒节奏和大量生产。

PdM4.0建议分析框架如图3所示。

无花果。3:分析框架为PdM4.0提取数据。

基线分析检测不规则行为资产毫秒内实际的事件。数据用于执行这些分析通常是本地资产从资产获得的考虑和依赖数据时正常工作。

诊断分析,识别异常的根本原因,如没有在电机轴承,需要先前知识的故障状态。诊断结果可以在分钟的顺序返回。

预后分析,告诉你的剩余使用寿命,轴承可以在时间的顺序返回结果和需要访问多种类型的数据,来自多个源的预测。

实现架构

结构化和非结构化数据,批量和流数据,速度和体积较大的分析框架的一部分行业4.0计划,和预测性维护有赖于这样一个框架。两个主要架构:

  • λ架构
  • Kappa架构

λ架构

λ架构是一个部署模型数据处理结合传统批管道fast-real-time流管道,提供数据驱动和事件驱动的数据访问在面对大量的快速生成数据。

无花果。4:λ架构。

图4显示了λ架构。

Apache卡夫卡通常是一个框架,用于实现数据源。它是一个分布式数据存储优化实时摄取和处理流数据,连续的、渐进的。它充当一个中间人的商店可以保存数据和服务的批处理层和层速度λ架构。

批处理层是经常使用这样的技术实现Apache Hadoop摄入数据以及将数据存储在一个具有成本效益的方式。数据被视为不可变的和扩展,以确保一个可信的所有输入数据的历史记录。

最新一批服务层增量索引视图允许最终用户查询和处理在一个极其并行的方式,以减少时间索引的数据集。

速度层与服务层由索引最近添加的数据尚未完全被服务层。在一般情况下,现场网关针对这个角色被最近的流场数据。他们摄取信息,过滤数据,提供身份映射,日志消息,并提供链接云或本地网关。这不是有利的上游如果网关也可以执行本地移动数据分析和机器学习,和这个功能时需要考虑CPU和内存大小的影响大小字段网关平台。

查询层是数据科学家,植物专家和管理者需要查询所有数据,包括最近添加的数据,提供接近实时分析系统。

Kappa架构

许多组织可能有批处理和实时和非常严格的端到端延时要求,在复杂的转换包括数据质量技术可以应用于流层。因此,Kappa架构是一个先架构部署模式。Apache卡夫卡是用于摄取数据等,漏斗流处理引擎Apache火花,Apache Flink,和其他人来说,变换和发布服务层的丰富数据报告和仪表盘。

PdM4.0边缘设备硬件要求

部署λ或Kappa体系结构、嵌入式系统的设备和边缘网关需要足够的计算性能和足够的内存。作为一个例子,让关注Apache卡夫卡,可以部署在这样的嵌入式系统来支持λ和Kappa架构。它可以在不同的部署配置,包括裸金属、虚拟机(VM),容器等的最低硬件要求运行Apache卡夫卡与一个非常小的足迹是一个单核处理器和一些100 mb的RAM。然而,这样的小规模的实现并不足以提供合适的服务质量λ和Kappa架构。

具体而言,在Apache卡夫卡系统概念的消息流分为特定的类被称为主题。这些消息被发布到特定主题使用专用的过程称为生产商。发布的信息被存储在服务器的集合称为经纪人。从根本上讲,卡夫卡代理预计客户生产者(现场设备)将消息放置到系统,客户端消费者(边缘设备),拉出来,和管理客户端工具(在现场设备和边缘设备),允许创建主题,删除主题,设置安全设置。这些最初的考虑为代理,生产者,消费者,和对各种需求管理工具给一个提示。的生产商,如果我们添加网络作品和数据收集的计算性能和内存占用为嵌入式系统可以是一个严重的业务。因此,这些都是这种嵌入式计算系统的特点提供适量的服务质量:

  • 异构的I / O收购和加工;
  • 能力执行数字信号处理、过滤、提取光谱组件,并减少冗余数据;
  • 能力运行VM和容器;
  • 执行机器学习能力和实时深度学习推理;和
  • 能够支持网络运营数据以及信息技术。

你可以找到一些上面的功能在系统芯片(SoC), CPU或gpu,但也有一些不足在I / O,没人可以在机器学习和数字信号处理,和一些没有足够的网络功能。在所有这些技术虽然另一个类别是新兴。自适应计算加速平台(acap)嵌入上述所有功能,包括向量处理机器学习和深度学习推理,标量cpu运行框架,紧密耦合的可编程序逻辑(PL)实时数据采集和I / O密集型处理。这些都是绑在一起的高带宽network-on-chip (NoC),它提供了内存映射访问所有三个处理元素类型和内存访问获取和处理数据。

ACAP然后提供所需的资源以实现基线和诊断分析的数据源与功能集成流处理框架Apake卡夫卡和其他集群系统。

图5:ACAP架构。

结论

预见性维护是一项具挑战性的努力,我们描述了如何组织数据和分析需求和功能。本文无法涵盖所有建筑的细节,但λ和Kappa架构介绍了显示路径实现描述速度和批处理层组件是如何工作的。所需的计算能力的边缘可以利用新的自适应计算设备像Xilinx acap管理庞大的数据量和提供必要的服务质量在边缘嵌入水平。



留下一个回复


(注意:这个名字会显示公开)

Baidu