推动人工智能安全高效发展

发布时间:2024-11-14 14:51:12 来源: sp20241114

原标题:推动人工智能安全高效发展

自动驾驶的汽车安全穿行在城市的车流中,人工智能(AI)生成的文章与图片在社交媒体上频频出现,工厂里搭载着智能系统的流水线以前所未有的高效率运转……人工智能正在成为重塑生产生活、引领时代变革的重要力量。与此同时,随着人工智能技术的持续发展,应用场景不断拓展,一系列安全风险与挑战随之产生。如何让人工智能在安全、稳定、高效的轨道上良性发展,成为业界普遍关注的问题。

垂直领域机遇空前

作为先进技术的标杆,人工智能领域的任何风吹草动都可能引发全球关注。从ChatGPT横空出世到Sora刷新认知,只用了1年多的时间。在此期间,国内的“百模大战”打得如火如荼,一批通过备案的大模型已经向各行业及社会公众开放。全球范围内,人工智能的竞争日趋激烈。

咨询机构麦肯锡预计,以AIGC为代表的AI技术将给全球经济带来超过7.9万亿美元价值,到2030年之前,如果生成式AI应用于各行业,每年总经济效益高达6.1万亿美元至7.9万亿美元。

近日,在中国发展高层论坛2024年年会“人工智能发展与治理专题研讨会”上,中国科学院副院长吴朝晖表示,人工智能将成为第四次工业革命的标配,将加速传统产业的转型升级,实现质量变革、效益变革和动力变革,重塑工业的基础再造、生产和服务模式创新的各个环节,引领新型工业化发展,为智能经济发展提供全新动能。

如何在新一轮产业革命中抢占先机?这是机遇,也是挑战。

人工智能作为一种技术工具,需要与产业结合,推动产业数字化转型,从而促进经济社会发展。我国庞大的人口规模、应用场景与完整的产业链,为产业落地提供了坚实的环境支持。360集团创始人周鸿祎表示,如果企业在某个业务领域有独特的业务数据,就应在这一垂直领域把大模型训练好,并将其与企业业务工具结合在一起。未来,企业里将不会只有一个超级大模型,而是有多个小规模的、百亿级的大模型,每个大模型只从事一个场景的工作。

充分发挥场景落地优势,在垂直领域发力,正成为当前国内企业发展人工智能的共识。腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴运声介绍,目前,腾讯已将AI大模型应用到多个业务场景中,在产业落地方面,基于腾讯云TI平台推出的行业大模型,通过结合行业专业知识和数据训练,以及企业自身的数据进行精调,帮助企业快速生成专属模型,目前已经面向20多个行业输出了超过50个行业大模型解决方案。

3月27日,百度智能云“AI Cloud Day:大模型应用产品发布会”发布通过大模型重构和升级之后的7款产品,覆盖营销内容的创作、数字人、智能客服等七大垂直领域。百度智能云副总裁喻友平表示,大模型作为一种普适性的应用,一定要和场景紧密结合。当前业界普遍思考,怎样把大模型用到企业中去。

业内人士认为,对多数企业,特别是中小微企业而言,以小规模、垂直化的大模型作为切入点,可以高效快速实现人工智能对产业的数字化赋能。同时将企业在垂直领域的智能化应用开发交给专业的智能产品服务商,使“专才”更专,效率更高。

作为生产智能化产品和解决方案的服务商,山东浪潮智能生产技术有限公司基于基础通用模型,正在训练研发围绕智能生产的“智产大模型”。浪潮智能生产总经理宋志刚表示,对于制造业来说,以人工智能与行业场景的深度融合为主线,与制造业企业生产环节深度结合,充分发挥深度学习、自主决策等优势,才能提升生产过程的智能化水平。浪潮智能生产以智产大模型为支撑,以“多维数据融合与智能优化引擎”为技术核心,打造了智能生产数据分析平台,并已实际应用于多家制造业企业,对生产效率有显著提升作用。据了解,专精于发动机活塞环制造的福建东亚机械有限公司在采用该智能平台后,通过机器视觉数据与行业数据集微调,生产效率提高20%,产品合格率由之前的90%提升到99%。

监管面临新的挑战

人工智能在创造前所未有机遇的同时,也伴随着超越以往范畴的风险,对监管提出了严峻考验。

人工智能带来的安全问题,呈现在AI模型的数据获取、数据训练以及应用上线运营全过程。吴运声认为,AI本体安全或AI内生安全,要重点关注AI模型和算法自身在可靠性、公平性、可解释性、透明性等方面的安全缺陷;AI应用安全,是AI模型从开发、测试、部署到运行交互等完整生命周期内的应用安全;AI衍生安全,也叫AIGC内容安全,主要是生成内容的涉黄、涉暴等违法违规内容的审核。长期来看,伴随着生成式AI的发展,AI伦理和AGI可控性将是AI安全的焦点。

百度法律研究中心主任陈晨表示,随着大模型的普及和快速迭代,确保其输出的内容符合用户预期和法律要求变得至关重要。大模型的内容输出风险,本质上是模型的推理能力和逻辑风险。这些风险主要体现在模型可能出现“偏见”“误判”“幻觉”等现实情况。因此,多元数据集对大模型发展至关重要。当前,我国生成式人工智能和大模型技术创新仍处于初级阶段,数据训练需要尽可能地包容和多样,而高质量、具有良好价值观的数据往往具有版权。如果因为高质量内容的缺失,而使生成式人工智能产生某种偏见,产生推理逻辑风险,将不利于产业的深度融合和公共服务水平的提升。

从企业角度出发,宋志刚认为,数据是一个核心点。智能模型的决策,建立在训练数据基础之上,一方面,训练数据的不准确会影响智能模型的决策,而用于训练样本的数据则面临被泄露或者被篡改的风险。他建议,可以基于传感器等生产智能化设备,多维度采集数据,建立起与数据准确性、完整性、有效性相关的管理机制。同时,加强技术攻关,基于小样本数据进行快速学习,不断调优模型参数。此外,还可以建立数据多重授权和安全防护机制来保障数据安全。

随着人工智能越来越广泛应用于生产生活的方方面面,在使用中产生的关于真实性、道德要求、权责归属等议题的讨论逐渐增多。

大模型具有工具属性,既可以成为好人的帮手,也可能成为坏人的帮凶。周鸿祎表示,合理的监管,可以对人工智能带来正向的推动作用。除了监管,还要寻找技术方法,比如在AI生产视频里加入不可更改、不可替换、不可修改的内部水印等。

中国政法大学数据法治研究院教授张凌寒认为,应通过技术发展回应和解决安全问题。不发展是最大的不安全,我们在技术和产业的国际竞争中必须以发展为制度设计的总目标。

治理体系逐步完善

人工智能的安全与治理问题,关乎产业发展方向与速度,关乎供给双方权利与义务,更关乎国际竞争中的优势与主动。

北京航空航天大学法学院院长助理、副教授赵精武表示,一国对人工智能的法律规制不仅影响着本国的产业发展和风险治理,更决定着该国在全球人工智能治理中的话语权。同时,在全球化的背景下,人工智能技术的发展和应用的跨国特性也要求国际社会共同面对和解决技术发展带来的挑战。

2023年10月18日,我国发布《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理中国方案。倡议提出,人工智能技术带来难以预知的各种风险和复杂挑战,各国应在人工智能治理中加强信息交流和技术合作,不断提升人工智能技术的安全性、可靠性、可控性、公平性。

行之有效的治理方案,既能够为人工智能的创新发展与产业应用提供良好的发展环境,还能妥善应对技术发展过程中的风险与问题。

中国信通院政策与经济研究所高级工程师程莹告诉记者,算法治理是在已有成熟业态之后,围绕网络平台展开的相对稳定、清晰、可预期的治理。当下的大模型具有扩展性强、迭代快速、商业模式尚在探索的阶段特性,全球主要经济体共同面临着“边发展边摸索边治理”的重大挑战。在我国,人工智能治理正从原则理念转化为可落地的规则规范。立法层面,既有民法典、个人信息保护法、电子商务法等条款针对深度伪造、大数据杀熟等具体问题的治理,也有在部门规章层面关于算法推荐、深度合成、AIGC领域的要求。伦理层面,在《关于加强科技伦理治理的意见》规范下,进一步推进《科技伦理审查办法(征求意见稿)》落地实施。标准层面,我国发布了《国家新一代人工智能标准体系建设指南》《生成式人工智能服务安全基本要求》等,对人工智能提出了具体落地要求。

人工智能领域的专门法也在逐步推进中。今年,在十四届全国人大二次会议新闻发布会上,大会发言人娄勤俭表示,下一步将研究推进科技创新方面的立法,特别是深入研究人工智能、生物技术等前沿科技领域有关伦理、道德、安全等重要问题,不断完善科技法律体系。

(责编:乔业琼、杨迪)