网络安全攻防战打响 机器学习难以“一肩挑”
在人工智能时代,网络安全问题备受关注。对此,安全研究人员转向了机器学习。机器学习的确提供了强有力的帮助,但在当前网络攻防态势下,机器学习也难以“一肩挑”。
在人工智能时代,各行各业最怕听到的是“取代”:人工智能被认为将一步取代法官、取代速记员,取代建筑工人和出租车司机……不过,目前在许多行业,人工智能仍然只能扮演配角,网络安全就是目前人工智能尚难解决的问题之一。
对此,安全研究人员转向了机器学习——人工智能的一种形式。对于机器学习来讲,最主要的两个概念分别是“有监督学习”和“无监督学习”。有监督学习就是人们“告诉”机器“哪些数据是属于哪一类的”,然后进行数据训练;反之,无监督学习就是“不告诉”机器,直接由人们对最终输出的结果进行定义。
之前,机器学习只是一个很有希望但并不成熟的技术,但在过去五年,机器学习获得了长足的进步,在很多任务上,机器学习这项技术都可以达到与人类接近的水平。
遭遇新软件时,机器学习系统会计算其是恶意软件的概率,根据既定阈值进行屏蔽或放行。若有恶意软件潜入,只需调整计算或重设阈值即可。时不时地,研究人员就会用新行为训练机器学习算法。
业内人士也表示,“在处理财务数据时,机器学习可以解决匹配客户联系方式、地址或从数据中发现趋势的经典问题。你训练的应用程序越‘理解’数据,你得出的分析和预测结果就越准确。”
尽管机器学习在网络安全方面已经具备一定的防御能力,但是也存在漏洞。在成都召开的C3安全峰会上,亚信安全通用安全产品中心总经理、亚信网络安全产业技术研究院副院长童宁表示,机器学习的确提供了强有力的帮助,但在当前网络攻防态势下,机器学习也难以“一肩挑”。
其实,机器学习所存在的问题并非近期才出现。早在众多关于机器学习的相关论文中,研究者们就曾多次提出机器学习的不准确性——对某些像素进行微调,就能欺骗神经网络。原因在于:虽然这些复杂的网络由多层处理器组成,但各个层面本质上都是通过分段线性函数来转换输入内容的,这种线性使得相关模型对推论容易盲从。
在某些情况下,通过恶意输入,机器学习算法可能在训练期间“中毒”,或者在训练之后被复制。通过对图像进行人眼几不可见的微小改变,黑客可以愚弄视觉处理系统,对其进行欺骗。
此外,恶意软件作者也可获得这些安全工具,调整自己的代码,查看能否规避检测。有些网站已提供了用主流安全系统检测软件的接口。最终,恶意软件作者会开始创建他们自己的机器学习模型,对战安全人工智能。