指尖安全11月11日讯,据Singularityhub报道,谷歌已经开发出能够自创加密算法的机器学习系统,这是人工智能(AI)在网络安全领域取得的最新成功。但是当我们的数字安全日益依赖智能机器时,将会产生什么样的影响?
谷歌位于加州的AI子公司Google Brain通过神经网络之间的互相攻击,实现了最新壮举。他们设计出两套分别被称为鲍勃(Bob)和爱丽丝(Alice)的神经网络系统,它们的任务就是确保通讯信息不被第三套神经系统伊芙(Eve)破解。没人告诉它们如何加密信息,但鲍勃和爱丽丝被给与共享的安全密匙,而伊芙没有。
在大多数测试中,鲍勃与爱丽丝能够迅速找到安全的通讯方式,使得伊芙无法破译密码。有意思的是,这些机器都使用了不同寻常的方法,这些方法通常在人类开发的加密系统中十分罕见。从可能性方面看,这些方法远比人类设计的最好的方法还要复杂得多。但是由于神经网络以不透明的方式解决问题,因此很难找出它们是如何操作的。
对于人类来说,破译计算机生成的加密非常容易。但是这也很难保证系统的安全性,并可能限制其实际应用范畴。此外,伊芙的表现似乎也可证明人的类怀疑,即神经系统在破译加密信息方面不太擅长。
但是研究人员表示,在理解通信元数据方面和计算机网络流量分析方面,神经网络是相当有效的技术。这就是许多人认为机器学习可被应用于网络安全领域的原因,因为现代AI在发现模式方面非常擅长,它们可以处理远比人类多得多的数据。
随着网络安全专家缺口不断增大,这将是个巨大市场。在今年夏季举行的黑帽黑客大会上,安全公司SparkCognition公布了其杀毒软件DeepArmor,它可以利用AI技术不断了解新的恶意软件行为,并识别出发生变异以尝试绕过安全系统的病毒。
当前的机器学习依然倾向于发现误报,并且无法应对许多由人类黑客发起的更微妙攻击。为此,许多方法专注于AI与人类并肩工作。荷兰安全厂商F-Secure与麻省理工学院下属计算机科学与人工智能实验室都开发出机器学习网络分流系统,它们可以过滤掉通过网络的大部分可疑信息,大幅削减需要人类专家处理的潜在威胁数量。
IBM希望更进一步,探索其超级计算机沃特森的自然语言处理能力。沃特森可以从人类网络安全专家发布的大量威胁报告、研究论文以及博客文章中学习。他们希望这能帮助他们于今年晚些时候提供云服务,可以有效地充当人类的专家级助理。
全自动系统也在取得进展。8月份,美国国防部下属DARPA举行网络挑战大赛,这是首次机器之间进行的黑客攻击对决。这些聊天机器人使用各种各样的AI方案,去自动发现软件漏洞,要么修复漏洞,要么利用漏洞,这一切都没有人类帮助。
尽管它们还远不够完美,有的机器甚至在比赛多数时间都处于休眠状态,其它机器甚至偶尔破坏了自己试图保护的系统。获胜的聊天机器人Mayhem在DEFCON黑客大会上与人类对决,尽管其最终落败,但结果依然令人印象深刻。许多观察家对聊天机器人展示出来的复杂水平和超人般的操作速度感到惊讶。
这是一场军备竞赛,黑客们也在利用这些新技术。路易斯维尔大学AI与网络安全副教授罗曼·扬波尔斯基(Roman Yampolskiy)说,他已经遇到过这样的程序,可以利用AI自动发现系统的安全漏洞或预测密码。他说:“我们正看到非常聪明的电脑病毒出现,它们能够修改无人机代码、改变它们的行为以及向目标中渗透。”
AI的另一个优势是模拟人类的能力。网络安全公司Darktrace技术主管戴夫·帕尔默(Dave Palmer)表示,他认为不久的将来,智能恶意软件就可以利用你的电子邮件来了解你的通讯方式,并创造出来自你的被感染的信息。《金融时报》曾报道称,已经有人在使用假鼠标动作或不同的打字速度模拟人类登陆,试图绕过安全系统访问特定网站。
在DARPA的网络挑战大赛结束后,电子前沿基金会(EFF)警告称,自动化处理漏洞的过程可能产生意想不到的严重后果,研究人员需要在行为准则方面达成一致,以应对这些威胁。如果这些系统摆脱开发者的控制,没人能够保证自动化防御系统能够对抗它们。并非所有的计算机都能轻易修补漏洞,特别是那些不经常访问或不容易进行更新的物联网设备。
研究人员需要考虑这些问题:防御工具如何能够轻易被改造成进攻工具?什么样的系统最容易成为攻击目标?他们到底有多脆弱?如果这些工具失去控制,最糟糕的后果会如何?
知名专栏作家瓦奥莱特·布卢 (Violet Blue) 说,EFF的担忧为时过早,他预测真正的AI黑客可能30年后才会出现,过度监管只会减慢AI技术的进步。正如Mayhem团队所说:“如果你只集中于防御,你会发现自己总是处于追赶之中,可能永远无法超过攻击者。”
但是随着网络安全日益成为对立机器人之间的对决,我们应该尽早开始谨慎地思考。毕竟,随着技术进步,机器人操作方式变得越来越高深莫测,我们可能弄不清它们到底谁好谁坏!