财经
经济日报:在发展中治理完善人工智能大模型炭打一字
2023-11-05 02:52  浏览:51

  新一轮科技革命和产业变革迅猛发展,数字技术、智能经济与数字化产业成为催生新产业、新业态、新模式的重点领域。发布仅6个月的ChatGPT,已掀起全球人工智能(AI)产业的大模型热潮。在日前举办的中国人工智能产业年会中,AI大模型带来的安全挑战和发展机遇成为与会专家热议话题。

  赋能千行百业

  ChatGPT在与人类对话、写作文、写代码等方面令人惊艳的表现,是AI大模型GPT通过大算力、大规模训练数据突破自然语言处理瓶颈的结果。但大模型本身并不是新鲜事物,AI大模型也不止GPT这一条路线,很多科技巨头近几年都在“炼”大模型,且各有积累。这也是ChatGPT走红之后,各巨头短短数月内就纷纷推出竞品的原因。

  “以ChatGPT为代表的多模态通用大模型,将深刻变革各行各业。”电子科技大学教授、考拉悠然科技有限公司联合创始人沈复民说,行业人工智能可有效推动技术与市场供需平衡,将是人工智能产业化的最大机遇。人工智能技术落地行业时,需要克服开发效率低、落地成本高、场景复杂多元等难题。

  沈复民所在的研发团队获得了2022年度吴文俊人工智能科学技术奖自然科学一等奖。据他介绍,团队开发了为垂直行业赋能的多模态AI操作系统,基于行业多模态大模型、多模态融合分析、机器视觉等核心AI算法支持,可以让企业摆脱繁杂的算法、算力、数据整合工作,快速孵化行业大模型,高效率应用到工业制造、城市治理、消费、能源、交通、建材等业务场景。

  “通用对话技术是人工智能领域最具挑战性的方向之一,也被认为是通用人工智能的必备能力。如今备受关注的对话式人工智能,其背后就有通用对话技术。”百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰说。中国人工智能产业年会期间,由他带领团队完成的“知识与深度学习融合的通用对话技术及应用”成果,获2022年度吴文俊人工智能科技进步奖特等奖。

  公开资料显示,这一研究项目已获授权发明专利82项,发表高水平论文36篇,在国际权威评测中获世界冠军11项。目前项目成果实现了大规模产业应用,已支持5亿智能设备,服务超过10亿用户,覆盖包括通信、金融、汽车、能源等20多个行业。

  争取“主动安全”

  技术是把双刃剑。人工智能大模型能力越大,一旦滥用带来的危害也就越大。当前,ChatGPT等工具被用于生成假新闻、假照片、假视频,甚至实施诈骗等犯罪行为,引发人们对大模型安全性的担忧。

  西北工业大学教授王震是网络空间智能对抗应用研究领域的专家,他认为,要用人工智能驱动网络空间智能对抗。比如,用人工智能检测、识别有害信息,搭建“主动安全”的智能防御网。

  “只有在AI发展过程中,我们才能面对问题、解决问题,并找到机遇。”蚂蚁集团AI风险管理负责人杨舟表示,在AI管理中,安全事件对日常风险管理至关重要。“我们需要重视和预测相关事件,分析安全问题,避免发展带来的风险。”

  了解机理是安全管理的基础。不过,大模型的“智能涌现”目前还是个难以解释的黑箱,没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能。开发出ChatGPT的公司OpenAI,也为大模型做了大量价值敏感设计和道德嵌入工作,但仍然存在明显的漏洞和局限。

  “虽然大模型的能力在不断变强,但如果不对其进行专门的安全性训练或安全性加固,其脆弱性不会得到任何改善。”瑞莱智慧公司首席执行官田天认为,人工智能大模型的安全性面临很多挑战。

  “大模型是人工智能发展的转折点,研究人员需要进一步了解这些大模型为何具备类人思考的能力。”香港科技大学教授冯雁表示,ChatGPT最初只作为科研项目发布,但通过加入人机交互界面,迅速变成网红产品。其爆红带来的伦理问题始料未及,也给生成式人工智能的管理提出了挑战。“只有真正的开源,才能共同研究,理解大模型存在的问题和产生的根源,更好地进行管理。”

  “商汤一直是开源开放的贡献者和支持者,但在开源上我们要谨慎一些,特别是目前对于大模型而言,安全防护体系还未健全。”商汤科技人工智能伦理与治理研究主任胡正坤说,在智能时代把底层模型开源,不见得安全,因为在开放能力的同时,也在开放薄弱点,而薄弱点有可能被不法分子利用。

  亟需深度治理

  专家们对未来的人工智能长远治理做出种种设想。

  “不能把价值设计看成治理的唯一路径。”复旦大学应用伦理学研究中心教授王国豫认为,针对现阶段人工智能治理的局限性,可从三方面采取措施。一是充分评估数据和模型的伦理影响和风险点;二是从流程方面,不仅要考虑通用模型,还要把通用模型纳入到社会生态系统、社会政治经济系统来考虑;三是探索伦理方法,充分探索“价值敏感设计”“负责任创新”等伦理方法在通用模型语境下的可行性。

  中国社会科学院哲学所科技哲学研究室主任、研究员段伟文表示,需要警惕机器对人类思维的驯化。比如,有的人不擅社交,可能用人工智能生成对话的方式帮他社交聊天,这样的对话机制会反过来驯化人类。他建议加强人类和人工智能的交互和沟通,不仅要了解人类怎么去修机器,也要研究机器如何影响人类。

  中科院自动化研究所研究员曾毅期待构建人工智能的道德直觉,“为机器人立心、为人工智能立心”是重要的长远工作目标。“强化学习的奖惩只是加加减减,它不是真正对道德的理解,除非人工智能实现基于自我的道德直觉。缺乏自我的人工智能无法拥有真正的道德直觉,做真正的道德决策。我们在做一个基于类脑的脉冲神经网络构建创生的人工智能引擎,希望让它像儿童一样去学习,获得自我感知。”曾毅说。

  “从要求人工智能大模型合乎伦理,到真正构建有道德的人工智能。”曾毅表示,未来通用人工智能和超级智能的伦理安全问题,要从现在就开始关注和准备。

发表评论
0评