IT时报 -V10 时报独家-
10时报独家
  • ·加快建设“智能汽车人才高地”
  • ·扶持兼具“安全和AI”能力的企业
  • ·智能交互引擎赋能新型工业化

扶持兼具“安全和AI”能力的企业

AI要产业化 也要安全

  

全国政协委员360集团创始人周鸿祎
  作为一名安全行业的“代言人”,周鸿祎在提案中建议以“安全即服务”的理念破解数字安全难题,将数字安全做成像“自来水”一样的公共服务基础设施。
  随着人工智能的发展,此次,周鸿祎也聚焦通用大模型的安全问题,鼓励兼具“安全和AI”能力的企业聚焦攻坚,承担重担。
  周鸿祎建议,有关部门采用揭榜挂帅等方式,鼓励并扶持兼具“安全和AI”能力的企业,更好发挥其解决通用大模型安全问题的重要作用。此外,国家研究制定保障通用大模型安全的标准体系,推动通用大模型开展安全评测、接入安全服务,降低通用大模型安全风险。
  相比民营企业以及其他各类组织,政府、央国企对通用大模型的应用具有更高的安全标准。周鸿祎建议政府、央国企与兼具“安全和AI”能力的企业在大模型安全领域展开深入合作,发挥此类企业在人工智能安全领域的优势作用。
时报解读
  去年以来,“新质生产力”已成为中国经济的一个高频词。通过深化人工智能多场景应用,大模型向垂直化、产业化方向发展,可以助力加快形成新质生产力。
  但当通用大模型作为推动技术变革的核心,成为时代发展的关键引擎,安全问题随着技术的发展愈发凸显。安全与发展是一体之两翼,驱动之双轮,通用大模型的安全意义重大,更需要国家和企业重点应对和保障。
  周鸿祎将通用人工智能技术引发的复杂安全风险,分为技术安全、内容安全和人类安全三个方面。其中,技术安全主要涉及大模型技术本身引发的安全问题,如网络、数据和生成内容的安全;内容安全则是对大模型的控制、滥用、误用和恶意应用等问题;而人类安全问题则是大模型强大后带来的安全可控问题。“通用大模型的发展已不是单纯的科技之争,更是国运之争,影响深远,中国应尽早未雨绸缪,重视大模型安全。”周鸿祎认为。
  目前,国内的大模型安全问题不容乐观。“大模型的数据来源广泛,可能包含个人隐私信息。在训练过程中,如果未能妥善处理这些数据,就可能导致用户隐私泄露。大模型也可能成为网络攻击的目标,因为其复杂的结构和庞大的参数数量,在训练过程中可能存在安全漏洞。如果遭到攻击,可能导致模型失效或产生错误输出,对社会以及一些关键领域造成危害。”一位安全专家告诉《IT时报》记者。
  虽然现在对于大模型安全有“防护措施”,但在周鸿祎看来,现阶段将安全模块作为大模型外挂的做法已不可行,安全需要贯穿通用大模型的整个构建过程,确保安全措施在系统的整个生命周期中得到充分考虑和实施。
  对于蓬勃发展中的新生事物,必须加以管束。正如周鸿祎所说,对于大模型安全,需要一套国家标准。
  国家标准要包含哪些?最基本的框架比如确保数据的来源合法合规,使用加密技术保护数据,使用安全协议等,也可以通过交叉验证等方法验证模型的准确性和可靠性。只有安全,才能保障大模型的生命力。