本文作者:admin

AI监管升级 业内建议把握好“平衡术”

admin 前天 1
AI监管升级 业内建议把握好“平衡术”摘要:   来源:上海证券报 刘怡鹤  年初至今,ChatGPT及其背后的人工智能(AI)大模型吸引全球科技巨头展开新一轮竞赛。与此同时,全球也在加强对新一代AI技术及应用的科学有效监管...

  来源:上海证券报 刘怡鹤

  年初至今,ChatGPT及其背后的人工智能(AI)大模型吸引全球科技巨头展开新一轮竞赛。与此同时,全球也在加强对新一代AI技术及应用的科学有效监管。

  国家互联网信息办公室4月11日发布关于《生成式人工智能服务管理办法(征求意见稿)》(下称“征求意见稿”)公开征求意见的通知。同日,美国商务部就如何为AI制定问责措施正式公开征求意见。此前,意大利、加拿大等国家也针对这一领域出台了相关监管措施。

  上海证券报记者采访企业代表及专家了解到,AI大模型目前具有高度不可解释性和潜在不可控性,隐私与数据安全、伦理道德等方面的风险已初步显现。在AI大模型指数级发展势头下,科学有效的监管迫在眉睫,要在促进创新与防范风险之间取得平衡。

  全球加强AI监管

  在华为、百度、商汤科技等科技巨头纷纷拿出其AI大模型“秀肌肉”之际,征求意见稿的发布,意味着我国生成式AI行业即将迎来首份监管文件。

  征求意见稿明确,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,需承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。

  当地时间4月11日,美国商务部就如何为AI制定问责措施正式公开征求意见。美国商务部下属的美国国家电信和信息管理局负责人表示,该机构希望建立针对AI模型可信度、合法性和道德准则等的审查制度。

  3月底至今,越来越多的国家对AI领域加强监管。意大利数据隐私监管机构以涉嫌非法收集个人数据、缺乏未成年人年龄核实等理由下令暂时禁止使用ChatGPT。随后,德国有关部门表示了采取类似措施的可能性。加拿大也开始对ChatGPT背后公司OpenAI展开调查。

  在监管政策方面,欧盟正在讨论的《人工智能法案》,也考虑将AI大模型带来的新情况纳入监管范围内,例如,监管没有人类监督情况下生成复杂文本的行为。英国近期发布的《支持AI创新的监管方法》白皮书中也提出了该领域的监管框架。

  不可解释性为AI大模型终极风险之源

  在专家看来,政府加强监管缘于对AI大模型潜在风险的担忧。

  “AI大模型虽然诞生于算法工程师编写的代码,但大模型神经网络之间的连接却是自发生成的,这使得开发者都无法对ChatGPT生成的内容做出解释。”AI绘画平台无界版图AI联合创始人马千里说。

  “算法高度黑箱化”在现阶段呈现为较差的可解释性。更令人担忧的是,随着未来大模型更智能、应用范围更广泛,将进一步出现失控的风险。这引发了人们对AI的终极担忧——如果AI觉醒产生意识,是否会危害人类?

  具体到现实应用层面,隐私与数据安全风险率先受到监管关注。“用户使用AI大模型工具时,通过对话的方式向其输入许多数据,这些数据最终被AI大模型的开发者所掌握和利用,存在个人隐私或商业机密泄露的风险。另外,人机对话中的信息能直接反映出用户的兴趣点和关注点,利用这些数据,AI大模型开发者可以形成更实时精准的用户画像。”上海社会科学院信息研究所副所长丁波涛表示。

  在上海交通大学安泰经济与管理学院教授史占中看来,ChatGPT能在极短时间内回答用户的问题,但在缺乏内容审核的情况下,尤其若被别有用心的用户滥用、诱导,ChatGPT能轻易生成违法违规等危害性的内容。

  与此同时,建立有效的内容审核机制却存在相当大的难度。“ChatGPT目前已经在全球拥有上亿用户,若用户量进一步增加,将几乎实时性地产生无限级的应用和无限级的算法创造。这种审核难度,远远超过了当前抖音、小红书等算法推荐式社交平台对有限内容的审核难度。”马千里说。

  OpenAI近期发表的一篇工作论文研究了ChatGPT使用的GPT模型和相关技术对美国劳动力市场的潜在影响。研究结果表明,至少80%的美国劳动力会受到大模型影响,其10%的工作会被替代;19%的美国劳动力将有超过50%的工作被替代。

  不过,从人类工业革命的历史经验来看,专家认为,对于AI冲击劳动力市场无需过度恐慌。“部分岗位被替代的同时,也将有更多岗位被创造出来。正如汽车出现以后,马车夫失去了工作,但创造了汽车制造、驾驶、维修等更多新岗位。”史占中说。

  监管应平衡鼓励创新与风险防范

  尽管对于AI大模型存在的风险,全社会仍需持续发现与研判,但从上述国家的监管发声及举措来看,不能因噎废食。风险背后,是AI大模型强大的生产力与创造力有望大幅提高全社会的效率。

  我国作为人工智能创新大国,早在2019年就提出了人工智能健康发展的八项原则,包括和谐友好、公平公正、包容共享等。在此基础上,征求意见稿表示,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。

  对于意大利等国采取的较为激进的措施,马千里认为,这些国家缺乏独立的互联网产业发展,正因在大模型产品消费国的立场上,所以更强调保护本国及本国用户的利益。史占中认为,短期来看,这仅是一种阶段性的缓兵之策,并不能从根本上解决问题。

  “我国一方面要关注其他国家对AI监管法规的变化,避免AI领域国内外技术与经贸交流合作中的合规风险。另一方面,也要借鉴其保障个人信息安全等做法,加强和改进我国AI治理体系。”丁波涛说。

  丁波涛同时表示,要加强监管体系和手段创新,突破静态、固化的监管方式,通过沙盒监管、敏捷监管等新型监管方式,更平衡地促进创新与防范风险。

阅读
分享