IT时报 -V12 新闻产业-
12新闻产业
  • ·“琼版”iPhone不止便宜
  • ·造新世界

造新世界

  

上接04版
  丁克峰介绍,目前浙大二院的“5G+AI”应用场景已经包括虚拟助理、医学影像、辅助诊疗、疾病风险预测、药物挖掘、健康管理、医院管理、辅助医学研究等8大领域。“比如,AI心电智能辅助诊断系统,经过深度学习之后,能够实现数十种常见症状的智能诊断,并能有效识别关联症状,模型准确率达到95%,可以有效减轻医生工作量。”
  浙大二院在影像领域的AI应用已经较为广泛,包括肺癌影像智能辅助诊断、颅脑影像智能辅助诊断、皮肤病诊断系统等。“用手机拍张皮肤的照片,上传至系统,AI就能分析,是黑色素瘤还是普通的瘤?转移的风险有多大?”丁克峰说,在这个领域当中,人工智能几乎可以和有经验的医生相媲美。
  除此之外,浙大二院还在推进植入式脑机接口临床转化应用,在高位截瘫病人的脑内植入utah阵列电极,从而让病人能用意念控制机械手臂的运动,完成进食、饮水和握手等。“5G+AI”还在推动智慧港口的建设,振华重工联合运营商、设备商,已经在上海洋山深水港借助5G实现对龙门吊进行远程精确操作。
  现在,振华重工正在参与打造粤港澳大湾区南沙四期全自动化码头的打造,全面采用5G网络,将新一代人工智能物联网感知、大数据分析等技术融入其中。
  高通总裁安蒙表示,“5G+AI”将为各行业带来变革。比如在交通行业,随着车与车、车与基础设施、车与行人相连接,5G C-V2X有望让出行更安全、更高效、更愉悦,而路侧基础设施将利用AI辅助摄像头感知和实施交通流量管控,在计算平台中将传感器和AI相结合,将使十字路口变得更加安全。
未来挑战:小心“坏数据”、破译“黑盒子”
  深度神经网络已经成为网络智能化主流方案,但安全问题使得AI在通信网络应用时很难得到信任。张勇指出,AI在5G网络智能化应用中面临五大挑战。
  挑战一:坏数据会产生“偏见”。数据往往被认为是人工智能最重要的驱动力,但也正因如此,“坏”的数据,或者“不完善”的数据,会直接影响计算结果。
  不久前,美国杜克大学研究人员发明一种新的图像识别算法PULSE,它可以将低分辨图片变成高清图片,但有人将奥巴马打了马赛克的照片输入后,复原的照片却有了白人的特征。图灵奖得主、人工智能标杆性人物Yann LeCun认为,这不仅是算法的问题,而是训练时使用的数据产生了“偏见”。“数据不完善,不管是数据源数量,还是已有数据的指标深度都存在着不足,使用这些数据应用智能运维效果不佳,甚至会造成决策错误。”张勇认为,当前存在标记数据缺乏、数据不平衡/异常标注广泛存在、仿真数据难以使人信服等数据源问题,这些都会影响AI对智能通信网络的优化。
  挑战二:AI能力还很“羸弱”。“通信网络对可靠性稳定性的要求,远比计算机完成人脸识别、语音识别的要求要高。”张勇举了一个例子,研究团队通过网络流量数据进行网络攻击行为检测,在一个公开数据集上进行分类检测得到一个很好的模型。换一个数据集,同样包含一样的攻击行为,检测效果就非常差。此外,张勇还指出,AI缺乏逻辑推理能力,那么在网络智能运维上所需要的一些逻辑推理问题没有办法开展,而且各种模型无法互通,获得的知识也无法传递。
  挑战三:“黑盒子”无法获得信任。“黑盒子”是当前深度学习产业化最大的拦路虎。在需要高可靠性的通信网络场景中,AI往往得不到信任。
  张勇团队在和一些企业合作时,准备用AI技术做无线信号识别,对方便提出,能不能不要用深度学习,“因为感觉这个不是很可靠。”这为AI技术在网络智能化应用带来挑战:深度学习如何在网络智能化上面保持保证高度可靠性,如何说服使用者信任它?
  挑战四:动态资源分配可能对网络产生影响。在很多对未来5G社会的设想中,使用者可以按需分配、按需使用、按需计费,这个要求必然只能通过AI来完成。但现实情况是,现有网络场景远比数学模型场景复杂,目前网络资源分配大多使用强化学习方法,张勇指出,在强化学习的探索过程中间,如果在现网上直接测试,很容易对网络性能带来负面影响。于是,研究者遭遇两难:如果先在测试网络上开展工作,训练过程中需要的资源、数据量和计算量不可想象,也无法承受。
  挑战五:小心被“对抗攻击”。研究表明,深度神经网为网络安全带来跨越式的发展机遇,但也为攻击者提供了新的攻击面——针对AI模型完整型发起的攻击,即所谓的“对抗攻击”。“数据投毒”和“逃逸攻击”是两种常见的对抗攻击。“数据投毒”是指攻击者通过在训练数据里加入伪装数据、恶意样本等行为来破坏数据的完整性,进而导致训练的算法模型决策出现偏差。根据中国信通院发布的《人工智能数据安全白皮书(2019)》,在自动驾驶领域,“数据投毒”可导致车辆违反交通规则甚至造成交通事故;在军事领域,通过信息伪装的方式可诱导自主性武器启动或攻击,从而带来毁灭性风险。
  逃逸攻击则是指攻击者在不改变目标机器学习系统的情况下,通过构造特定输入样本以完成欺骗目标系统的攻击。比如,一个深度学习系统原本可以精确区分熊猫与长臂猿等图片,但是攻击者可以对熊猫图片增加少量干扰生成的图片,人看起来仍是熊猫,但系统会误认为长臂猿。
  张勇团队做了一个实验,针对基于AI的入侵检测系统,通过对抗生成网络产生攻击的网络数据流样本,对采用不同机器学习算法的IDS(入侵检测系统)进行攻击,攻击成功率最高可以达到80%以上,也就是说,他们改变了攻击数据级的特征,让原本具有很高检测能力的基于AI的入侵检测系统失效了。“构建一个可靠、安全、可信的人工智能解决方案,需要从数理基础上进行梳理研究,但这是一个很漫长的工作,目前来看还没有好的方法。”张勇表示。