财经新闻网

您现在的位置是:首页 > 行业新闻 > 智能汽车 > 正文

智能汽车

人工智能疾风劲吹,企业呼吁明晰权责界限、分类分级监管“守国门”成为大热娱乐现象,未必是件坏事!(狂风科技股票)人工智能风险管理,

品牌网 2024-07-29智能汽车
    21世纪经济报道记者 钟雨欣 冯恋阁 实习生刘爽 北京报道     2022年底,ChatGPT横空出世,掀起了新一轮人工智能革命。今后,各国科技公司纷纷加码大模型研发,“千模大战”愈发激烈。人工智能疾风劲吹,深刻地改变着社会……

 

21世纪经济报道记者 钟雨欣 冯恋阁 实习生刘爽 北京报道

2022年底,ChatGPT横空出世,掀起了新一轮人工智能革命。今后,各国科技公司纷纷加码大模型研发,“千模大战”愈发激烈。人工智能疾风劲吹,深刻地改变着社会生产力与生产关系,同时,数据泄露、版权纠纷、歧视偏见等伴生风险成为隐忧,全球都在进行人工智能治理话语竞赛,寻求监管主导权。在此配景下,中国将会如何通过立法来贡献出具有中国特色的AI治理路径?

8月15日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在北京举行,研讨会邀请监管部分、专家学者与行业代表,共同就我国人工智能发展相关问题建言献策。

人工智能财产链特性使责任原则难落实

人工智能浪潮涌起,技术发展带来的挑战与机遇影响着财产链的每一环节。星纪魅族集团有限公司数据合规执行总监朱玲凤从财产链的角度探讨了当前人工智能治理的难点。“移动应用的生态系统,从APP到SDK、应用分发、操纵系统,我们一般称之为‘生态圈’。但人工智能有所差别,是有上下游关系的,芯片、算力、存储、算法模型等缺一不可,才气最终形成服务,可以理解为‘财产链’。”

朱玲凤表现,人工智能财产链是分散式的,相互依存且处于动态变革中。“服务的最终形态会因过程中的数据输入、场景和选择链路变革而发生改变。例如,当上游的训练数据过程存在人口统计偏差却没有及时处置惩罚,下游投入应用,如面部识别时,则可能因代表人群缺失等缺陷而产生极端事件。”

“新兴行业通常会推崇责任原则,强调企业能够证明自己已经有效履行合规义务。但在人工智能财产链上,责任原则很难落实,风险管理制度处于失效状态,对于研发者来说很难基于使用场景来识别和管理风险,提供者来说了解使用场景,但是可能并不掌握训练数据、模型选择、模型测试等情况,无法实际判断风险。”朱玲凤说。

小米集团高级法务总监陈一夫认为,目前AI技术水平仍属于弱人工智能,是完成特定任务的信息化工具,不具备自主意识,现有法律框架仍可以规制。但久远来看,AI技术的革命性创新给社会关系带来根天性的挑战。一是社会伦理的挑战,如教育、隐私、网络宁静、欺诈、歧视等等。二是经济的挑战,人工智能可能对劳动者进行替代,引发就业问题。三是生存的挑战,未来具有自主意识的强人工智能对人类文明的影响不可控。因此,需要全社会在伦理维度有更多思考。同时,企业要建立正确的科技理念,技术发展要对人类文明有恒久价值,恒久连续投入,给人工智能赋予人类的价值观。

企业呼吁明晰权责界限、分类分级监管

人工智能技术与各个财产融合渐深,覆盖多种应用场景,差别类型、水平的风险也逐渐被人注意。然而,技术对财产转型升级的效用也不可忽视。到场研讨会的从业者认为,未来应聚焦应用风险,建构基于风险的监管治理体系。

新浪集团法务部总经理谷海燕指出,整体监管上,企业期待更有区分度和颗粒度的监管步伐好比欧盟《人工智能法案》中,根据设置差别的风险品级、区分规制路径并设置法律的义务。这类步伐能够更好平衡企业社会责任和能量释放,促进财产健康发展。

朱玲凤表现,行业期待法律简直定性,进一步明确义务界限和责任分工有利于营造更优的营商环境。“以人工智能透明度和可解释性举例,上游数据提供方可以通过提供‘数据卡’的方式,告知数据来源、数据质量、清洗过程等,模型开发者也可以通过‘模型卡’的方式解释模型的选择,以此类推,通过技术流程予以明确义务,差别的主体之间有清晰的责任界限且互相衔接的方式,强化通过技术监管的方式来应对风险。”

淘天集团法务部数据合规负责人顾伟则结合自身实务经验指出,技术进展日新月异,要精准地预测每一个伴生风险并不容易。因此,应当增加法律、规则中的容错机制,为财产发展留出空间。“人工智能立法应当强调基于原则性的规定,而非具体规则。”

随着人工智能发展踏上新台阶,2022年至今,政府接连出台新政策,以期助力行业发展。今年7月,国家网信办等七部分发布的《生成式人工智能服务管理暂行措施》(以下简称“《暂行措施》”),对服务各环节提出一系列要求。作为我国在AI治理领域的最新规则,《暂行措施》体现了我国怎样的治理思路?

“相比于此前的征求意见稿,《暂行措施》更鼓励财产发展,将企业包管义务酿成提倡答应。”陈一夫认为,《暂行措施》一定水平包管了从业者的权责平衡,为行业发展留出了空间。针对未来治理实践,陈一夫建议,应当审慎执法,同时包管有典型性的执法,保障行业健康发展的同时,也有底线可以参照;别的,还要加强伦理和责任制的研究,让身处技术中的各方明晰权责。

人工智能立法应坚持以监管促发展

未来,中国人工智能监管如何平衡发展与治理?

中国信通院云大所内容科技部研究员呼娜英认为要以“数据、模型、内容、服务”为核心关切,首先应聚焦数据治理,确保源头可信,把控训练数据来源合法性,关注合乎版权的数据处置惩罚规范,掩护敏感信息;其次要加强模型治理,提高模型科技伦理治理要求,促进模型应用上下游信息共享,强调模型全生命周期宁静可控;最后深化内容治理,探索溯源技术,防范虚假信息的生产流传,构建健康文明网络生态。

全国人大常委会法制工作委员会经济法室副处长林一英强调,“不发展就是最大的不宁静”已经成为共识。当前,全球都将人工智能作为提高国际竞争力、维护国家宁静的重要战略,在此配景下,我国应坚持“以监管促发展”的思路来推进立法,坚持宁静与发展并重。

北京交通大学国家宁静法治发展研究院联席院长赵刚比力了中美人工智能监管的差别,他认为,中美在大模型的训练框架、训练效率、宁静性、可解释性、可信度等方面差距较明显,建议发挥体制优势,建立国家在人工智能方面的科技战略力量,整合研发资源,加快核心技术攻关,鼓励地方政府及各行业优先应用我国的人工智能产物、技术和服务。

“全球范围内的人工智能立法已经铺开,中国探讨自己的AI立法是复杂且艰巨的。”北京视界律师事务所合伙人吴凡表现,生成式AI是划时代的革命性工具,建议根据AI适用的场景和相应的风险进行分级管理。对于国家宁静、主流价值观、伦理道德等划定红线,对高风险、中风险、低风险的AI应用接纳差别的监管方式,例如规定差别化的数据容错率、审批制与存案制相结合等等。

“探索中国AI立法之路,首先要尊重行业差别差别行业对人工智能的使用方式和效果都有着非常大的区别;其次要强调政治宁静,同时促进社会公平,掩护个人隐私;别的,发展的弹性和确定性要相结合,确定性较高的事情可以公开透明地让公众了解,因技术而带来的不确定性,应当保持一定的弹性;最后,在国内国际双循环的配景下,人工智能的发展要与国际合作相结合,更好地融入到世界的技术迭代当中。”吴凡说。

更多内容请下载21财经APP