院况简介
1949年,伴随着新中国的诞生,中国科学院成立。
作为国家在科学技术方面的最高学术机构和全国自然科学与高新技术的综合研究与发展中心,建院以来,中国科学院时刻牢记使命,与科学共进,与祖国同行,以国家富强、人民幸福为己任,人才辈出,硕果累累,为我国科技进步、经济社会发展和国家安全做出了不可替代的重要贡献。 更多简介 +
院领导集体
创新单元
科技奖励
科技期刊
工作动态/ 更多
中国科学院学部
中国科学院院部
语音播报
机器学习模型受到攻击将产生严重的后果,但如果对这一情形提前预防呢?就像人类针对即将到来的病毒去接种疫苗一样。据澳大利亚联邦科学与工业研究组织(CSIRO)官方网站消息,该机构的一个研究团队,日前开发了一套人工智能(AI)最新算法,可帮助机器学习抵御可能遇到的干扰。
机器学习是人工智能的核心,也是使计算机具有智能的根本途径。机器学习主旨是让计算机去模拟或实现人类的学习行为,以获取新的知识或技能,并重新组织已有的知识结构,使之不断改善自身的性能。
机器学习虽然可以在大数据训练中学到正确的工作方法,但它也很容易受到恶意干扰。通常攻击者是通过输入恶意数据来“欺骗”机器学习模型,导致其出现严重故障。
此次,开发出新算法的研究团队——“Data61”机器学习小组领导者理查德·诺克表示,攻击者会在进行图像识别时,在图像上添加一层干扰波,达到“欺骗”的目的,从而让机器学习模型产生错误的图像分类。
诺克及其团队成员研发的新算法,通过一种类似疫苗接种的思路,可以帮助机器学习“修炼”出抗干扰能力。这是针对机器学习模型打造的防干扰训练,譬如,在图片识别领域,该算法能够对图片集合进行微小的修改或使其失真,激发出机器学习模型“领会”到越来越强的抗干扰能力,并形成相关的自我抗干扰训练模型。
经过此类小规模的失真训练后,最终的抗干扰训练模型将更加强大,当真正的攻击到来之时,机器学习模型将具备“免疫”功能。
扫一扫在手机打开当前页
© 1996 - 中国科学院 版权所有 京ICP备05002857号-1 京公网安备110402500047号 网站标识码bm48000002
地址:北京市西城区三里河路52号 邮编:100864
电话: 86 10 68597114(总机) 86 10 68597289(总值班室)
编辑部邮箱:casweb@cashq.ac.cn
© 1996 - 中国科学院 版权所有 京ICP备05002857号-1 京公网安备110402500047号 网站标识码bm48000002
地址:北京市西城区三里河路52号 邮编:100864
电话: 86 10 68597114(总机) 86 10 68597289(总值班室)
编辑部邮箱:casweb@cashq.ac.cn
© 1996 - 中国科学院 版权所有
京ICP备05002857号-1
京公网安备110402500047号
网站标识码bm48000002
地址:北京市西城区三里河路52号 邮编:100864
电话:86 10 68597114(总机)
86 10 68597289(总值班室)
编辑部邮箱:casweb@cashq.ac.cn