IT时报 -V2 时报快评-
2时报快评
  • ·ChatGPT爆火 人工智能须尽快加以约束
  • ·无标题
  • ·无标题
  • ·12部门进一步加强学科类隐形变异培训防范治理工作

ChatGPT爆火 人工智能须尽快加以约束

  

■林斐
  上周在国外社交最火的话题之一是ChatGPT,一款人工智能聊天机器人,据说与其对话的全球用户已经超过100万。从实际效果来看,ChatGPT是同类产品中最好的,没有之一。
  ChatGPT出自旧金山人工智能公司OpenAI,该公司还推出了GPT-3和DALL-E 2,GPT-3是一种语言模型,DALL-E 2作为一款人工智能绘画应用,也广受欢迎,已经拥有超过150万用户。
  OpenAI成立于2015年12月,是由特斯拉CEO马斯克、美国创业孵化器Y Combinator总裁阿尔特曼和PayPal联合创始人彼得·蒂尔等人联合创立。在2019年,微软就向OpenAI投资了10亿美元。
  不过马斯克公开表示退出OpenAI,他给出的原因是内部一些发展观点上的不和。长期以来,马斯克持续表示:“人工智能是对人类来说是一种生存威胁,面对这项强大的技术,目前没有谁能介入解决问题。”而这也是我所担心的。
  正如名字所标明的,ChatGPT的“智能”来自GPT-3。人工智能公司小冰公司CEO李笛在接受媒体采访时分析,ChatGPT是针对数据形成的模型进行训练:人先写出一些指导性的问与答,用这些问答对大模型进行训练,通过一系列反馈式的训练方法,让大模型逐渐沿袭人所给予的关于问答的指导性意见、逻辑。
  而我的理解是,ChatGPT从实验室走出,面向公众开放,交流反馈的过程,实际上也是训练的一部分,正在帮助其继续“进化”。
  这不由让我想起另外一个人工智能聊天机器人“Tay”,它出自微软,专为Twitter、Facebook、Snapchat和Instagram等社交媒体设计。在原始设定中,Tay是一名十几岁的女孩,但是当Tay在Twitter平台上线后,不到24小时,她就被平台上用户“调教”成一名“不良少女”,最终微软将其紧急下线。
  OpenAI并没有公布ChatGPT的“人格”设定,但是有研究者在与其沟通后,还是发现了部分“刻板”特征,例如ChatGPT认为“好科学家是白人或亚洲男性”等。另外一项政治光谱研究表明,ChatGPT的倾向性明显,对自由市场持怀疑态度,认为大公司剥削发展中国家,支持对富人征税和政府补贴,支持为拒绝工作的人提供福利,支持移民等。
  为什么会出现这些情况?原因是ChatGPT在接受训练时获得的大量数据,以及数据模型的参数定义,数据来源和参数调整都是可以人为操控的。
  现在我不知道有多少个未公开的人工智能在网络上进行测试试验,并且正与真实的人类进行交流,而人工智能所产生的内容,污染搜索引擎结果是轻而易举的事情,进而影响大规模人群的心理、对社会和政治产生影响,也并非不可能。
  所以针对人工智能,必须在伦理、可信和责任等多个方面加以约束,包括提供人工智能开发和使用信息的指导方针直至成文法规法律;研究机构的道德设计和治理实践,在人工智能系统研发产出流程各个阶段都有明确的问责制度等。
  另外在人工智能对公众公开前,也必须经过多项审核,比如技术层面,是否能够对抗性攻击,具有鲁棒性,针对未知安全风险有后备计划;是否已采用适当的数据最小化和数据管理实践来保护用户的隐私;是否已经过偏见测试;系统相关利益相关者是否经过公正性审核等,并且这些审核是周期性的、根据现状可以调整的,覆盖人工智能系统全生命周期。
  恰逢其时,最近国家互联网信息办公室、工业和信息化部、公安部联合发布了《互联网信息服务深度合成管理规定》。该《规定》明确了深度合成服务的一般规定、数据和技术管理规范以及监督检查与法律责任等内容。规定中强调了包括加强技术管理、定期审核、评估验证,以及有关模板、模型、工具的安全评估等的平台主体责任内容。