系统信息:8月13日

相机覆盖作物;PLC的缺陷;反歧视培训还管辖规模。

受欢迎程度

密切关注作物
密苏里大学的研究人员与美国农业部农业研究服务于普通数码相机搭配一个微型红外摄像机一个新的系统提供温度数据和作物的详细图像。

“用红外摄像头监控作物温度会很棘手,因为很难区分植物和背景元素,如土壤或阴影,”Ken Sudduth说,美国农业部农业生物工程教授工程师和兼职μ的农业大学,食品和自然资源。“通过增加一个微型红外摄像机数码相机,我们创建了一个系统,可以检查作物温度与伟大的细节和准确性。”

Sudduth发达菲利普·德鲁的摄像系统,研究人员完成了他的硕士学位研究生在工作时μ项目。在一起,同一地区的相机生成两个不同的图像:一个视觉详细的照片和一个红外图像。设置中,称为多波段成像系统的作物树冠,允许农民从数码相机图像识别问题和分析这些地区温度映射到光强度的红外图像。

加上一个算法,自动过滤土壤,阴影,和其他非植物存在的图片、摄像系统将允许农民精确灌溉庄稼根据个体植物的特定需求,最大化收益和优化用水不需要购买更多昂贵的红外摄像机。


图片来源:密苏里大学

“中等规模的农民有大的领域,但他们并不总是有资金昂贵的监测设备,“Sudduth说。“我们的精密监测系统允许在一个大区域为一个更易于管理的成本。这是有利于农民可以赚取更大的利润,和对人有好处取决于他们的庄稼。”

Sudduth表示,该系统需要更多的微调,才能卖给农民,和未来的迭代可以结合无人机增加通用性。

流氓电脑PLC暴露弱点
网络安全研究人员在特拉维夫大学和理工学院的技术发现关键的漏洞在西门子S7硅镁质可编程序逻辑控制器(PLC),是世界上最安全的PLC用于工业过程运行。

Avishai Wool教授和M。Sc学生乌列马林(τ)电气工程学院的合作与Eli Biham教授和博士莎拉Technion扰乱碧潭PLC的功能和控制操作。

团队提出了他们的研究结果在最近的美国黑帽会议在拉斯维加斯,揭示了安全漏洞他们发现在最新一代的西门子系统以及它们如何逆向工程在S7专有加密协议。

最佳实践后负责披露,研究结果与西门子在美国黑帽演讲之前,允许制造商准备。

科学家们的流氓工程工作站构成所谓TIA工程站的界面的介绍Simatic s7 - 1500 PLC控制工业体系。“车站能够远程启动和停止PLC通过征用西门子通信体系结构,可能会破坏一个工业过程中,“羊毛教授解释道。“我们当时能够夺取TIA和偷偷下载流氓的控制命令对s7 - 1500 PLC逻辑。”

研究人员把流氓代码,这样藏在一过程工程师无法看到它。如果工程师检查PLC的代码,他或她会只看到合法PLC源代码,不知道在后台运行的恶意代码,PLC发出流氓命令。

西门子技术的研究结合做事投入研究团队带和τ。

他们的发现证明复杂的攻击者可以滥用西门子最新一代的工业控制器,建立更先进的安全功能和更安全的通信协议。

西门子工业控制系统(ICS)翻了一番下来安全Stuxnet攻击后2010年,其控制器的目标在一个复杂的攻击,最终破坏了离心机在伊朗在纳坦兹核设施。

“这是一个复杂的挑战,因为新版本的改进,西门子了硅镁质控制器,“Biham教授补充道。“我们的成功与我们的丰富的经验分析和保护控制器和整合我们的深入知识几个方面:系统了解,逆向工程,和密码。”

碧潭博士指出,攻击制造商和客户强调需要投资在工业控制系统的安全。“袭击表明,确保工业控制系统是一个比保护信息系统更加困难和具有挑战性的任务,”她总结说。

培训更好的机器学习模型
哈佛大学的研究人员正在帮助消除人类的偏见培训机器学习模型

数据集与成千上万的这些问题,所产生的人类,导致爆炸的新的神经网络架构解决自然语言推理。多年来,这些神经网络已经越来越好了。今天的先进的模式通常会在这些测试相当于一个B +。人类通常分数A或A -。

但研究人员最近发现,机器学习模型仍然非常好当他们只给出答案,也叫做假说,没有原来的前提。

事实证明,这些数据集是充斥着人类的偏见。当被问及提出矛盾的句子,人类经常使用否定,“不”或“没有人。”

“这些模型不是学习理解文本之间的关系,他们正在学习捕捉人类的特质,“说Yonatan Belinkov,论文的第一作者,哈佛大学在计算机科学博士后约翰·a·保尔森工程和应用科学学院(海洋)。

为了解决这一问题,Belinkov和他的同事们开发了一种新的机器学习方法来构建模型,降低了模型的依赖这些偏见。

第57届年会上提出了他们的研究团队计算语言学协会的(ACL)在佛罗伦萨,意大利7月28日- 8月2日。

模型是常见的典型自然语言推理测试作为一个单独的流-前提和假设都是一起处理,输入到分类器预测矛盾,中性或暗含。

团队第二个流添加到模型中,这个只有假说。模型学习同时进行自然语言推理与流,但如果是假设只有在一边,这是惩罚。这种方法鼓励模型更加关注前提,避免学习偏差导致成功的假设只有在性能。

“我们的希望是,通过这种方法,该模型不仅专注于偏见的话,如“不”或“没有,”而是学到更深层次的东西,”斯图尔特说谢波,jr .)和弗吉尼亚詹姆斯·o·韦尔奇b·韦尔奇海洋和计算机科学教授论文的合著者。

这些偏见,然而,也可以是重要的上下文线索来解决问题,这是关键不要贬低他们太多。

“有偏见和实用性之间的细线,”盖伯瑞尔说,CS“18岁,从事该项目作为他的本科论文的一部分。“达到峰值性能意味着忘记很多但不是全部的假设。”

通过消除这些假设,二束模型不出所料的数据表现稍差,训练比模型不依赖于偏见而受罚。然而,当测试新的数据集——不同的偏见——模型做的更好。

“尽管模型做了几个百分点,在自己的数据集,它已经学会了不依赖于偏见。所以,这种方法产生一个模型,执行更广泛和更健壮,“谢波说。

这种方法可能适用于一系列的人工智能任务要求确定更深层次的关系,如视觉问答,阅读理解,其他自然语言任务,同时避免肤浅的偏见。

摘要——可以从哈佛大学的缓冲存储库——是由亚当•Poliak博士生和co-first作者,和本杰明·范·Durme助理教授在计算机科学中,约翰霍普金斯大学语言中心的成员和语音处理,亚历山大·m·拉什,计算机科学副教授。

这项研究受到了哈佛,大脑和行为计划,DARPA罗蕾莱和美国国家科学基金会。



留下一个回复


(注意:这个名字会显示公开)

Baidu