中国财经新闻网

您现在的位置是:首页 > 财经科技 > 正文

财经科技

为算法模型发展划“红线”人工智能产业健康有序发展

伦理   科技   模型   算法   人工  
财经网 2023-10-20财经科技
AI换脸、“复活”生命?科技伦理审核为算法模型划出红线……

这些科幻电影中想象的片段,似乎离我们并不遥远。 随着GPT和算法的快速发展,一些人已经意识到利用AI工具与死者“对话”的可能性。 此外,AI换脸、AI生成视频等也引发热议,其背后随之而来的技术伦理、道德、法律风险也成为舆论焦点。

近日,科技部、教育部、工业和信息化部等十部门联合印发的《科学技术伦理审查办法(试行)》(以下简称《审查办法》)科技正式公布,旨在规范科学研究、技术开发等科技事务。 开展活动伦理审查,加强科技伦理风险防控。

天使投资人、资深人工智能专家郭涛认为,《审查办法》的实施,对人工智能大型模型的发展带来了更加严格的要求和监管,有利于推动可信人工智能的实现,推动人工智能的发展。 行业健康有序发展。

为算法模型开发划定“红线”

《审查办法》明确,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应当成立科技伦理(审查)委员会。

值得注意的是,《审查办法》还列出了需要进行伦理审查的科技活动清单,包括具有动员舆论、引导社会意识能力的算法模型、应用和系统的研发。

这也意味着,《审查办法》实施后,算法模型、应用和系统的研发也将成为伦理审查的重点。 近年来,从ChatGPT的爆发开始,“大模型”和“算法”也备受关注。 科技进步带来创新的同时,背后也引发了隐忧。

今年4月初,上海青年吴五六“复活”奶奶的视频迅速走红网络,引发网友热议。 吴五六利用Midjourney、ChatGPT、D-ID等最新AI技术,尝试“复活”奶奶。 其中,ChatGPT4深度参与了《奶奶》的创作。 当吴五六描述了奶奶的性格特征和人生经历后,ChatGPT4就可以扮演奶奶的角色,与孙子自由地“对话”。

当时网络舆论认为这样的做法会给人带来安慰,但也有人认为会带来伦理问题。 此前,生成式人工智能、算法等也引发了多轮争议。 例如,不法分子利用非法获取的个人信息,通过计算机算法模拟合成受害人亲属、领导、同事、公职人员的肖像、人脸、声音,冒充上述人员的身份实施诈骗。

又比如,生成式人工智能创建的内容高度真实,使得普通人越来越难以区分真实内容和生成内容。 也让“图真”“视频真”成为过去式,而伪造、歪曲事实、谣言也成为过去式。 变得更容易。

财经评论员张雪峰认为,《审查办法》的出台意味着对人工智能算法模型的发展设置了一定的限制和规定。 它为算法模型的开发和使用提供伦理审查指导,确保科技活动的开展符合道德和社会价值观。 国内大型人工智能模型的发展将带来更加明确的伦理要求和方向,促使相关企业和研究机构更加关注伦理问题,加强伦理风险的评估和管理。

道德风险主要表现在哪些方面?

事实上,业界关于算法模型和人工智能的伦理问题的讨论从未停止过。 据外媒报道,澳大利亚墨尔本西部赫本郡市长布莱恩·胡德表示,ChatGPT 错误地将他列为贿赂犯罪分子。 他于3月21日写信给ChatGPT的开发商OpenAI,要求他们在28天内修复错误,否则他将对他们提起诉讼。 一旦提起诉讼,这将是世界上第一起针对生成式人工智能的诽谤诉讼。

当地时间4月4日,加拿大隐私专员办公室(OPC)宣布对ChatGPT的开发公司OpenAI展开调查。 该调查涉及“OpenAI未经同意收集、使用和披露个人信息”的指控。 这也是继意大利之后全球第二个对OpenAI发起调查的国家。

除意大利和加拿大外,德国、法国、爱尔兰、西班牙等国家的监管机构均表示正在密切关注ChatGPT的数据安全问题。

ChatGPT 等大型模型的受欢迎程度持续飙升,各公司纷纷追赶。 其中,对数据隐私、安全、社会道德等的威胁猖獗。 “能力越大,责任就越大。” 大型模型的开发面临社会和伦理风险。 如何规避相关风险引起国际社会广泛关注。

郭涛表示,人工智能算法模型的伦理风险主要体现在数据隐私、安全威胁、算法歧视和人工智能主体权利等方面。 其中,数据隐私是指人工智能算法在处理个人信息时可能泄露用户的隐私信息; 安全威胁是指人工智能算法可能被黑客攻击,导致用户信息被窃取; 算法歧视是指当人工智能智能算法运行时,由于算法本身的缺陷,可能会导致对某些群体的歧视; 人工智能主体的权利是指人工智能算法可能对人类主体产生不利影响,例如对人类主体的生命、财产等产生不利影响。 威胁。

此前,为了应对人工智能可能带来的伦理和社会影响,微软内部成立了人工智能伦理委员会。

科技部国家科技专家库专家周迪表示,此次将科技伦理拓展到大模型领域,主要是为了防范这方面可能存在的风险。 “这也是与世界同步的,国外科技公司设立专门的技术伦理委员会已经成为常态。Facebook、谷歌、索尼、微软等科技巨头都成立了自己的伦理委员会。”

周迪还指出,引入伦理审查机制后,一个新的人工智能框架或产品能否推出,不仅取决于市场、资金、技术等因素,还取决于伦理因素。

只有在规则的约束下才能更好的发展

赛迪顾问发布的《2023年大型车型现状调查报告》显示,截至2023年7月底,国外共发布大型车型138款,国内共发布大型车型130款。 《中国人工智能大模型图谱研究报告》显示,从已发布的大模型全球分布来看,中国和美国明显领先,占全球总量的80%以上。 其中,我国发布了79个参数超过10亿的大型模型。 个人的。

值得注意的是,数据显示,ChatGPT早期3.0版本参数数量已达到1750亿个,4.0版本参数数量已达到1.8万亿个,训练数据单元数量达到惊人的13万亿个。

人工智能发展至今,已成为全球新一轮科技革命和产业变革的核心驱动力。 当前,利用大数据提高算力、强化算法,形成超大规模智能模型,已成为新一代人工智能生态系统的核心。

发展越来越快的人工智能是否有必要监管? 河南泽金律师事务所主任付健认为,科技发明应当遵循科技伦理。 如果它们违背科技伦理,不符合人类社会基本道德原则,就应该在萌芽阶段加以控制,发展到一定规模后再进行规范。 可能为时已晚。

企业也围绕共建科技道德在行动。 例如,9月8日上午,外滩大会“人工智能技术伦理”洞察论坛在上海举行。 会上多位专家提到了“AI换脸”、人脸识别等热议问题。 与此同时,蚂蚁集团在论坛上宣布启动大规模道德共建计划。

此外,大规模技术的伦理审查不存在法律障碍。 郭涛指出,《中华人民共和国科学技术进步法》、《中华人民共和国网络安全法》、《数据安全法》等与科技伦理审查相关的法律法规和办法中华人民共和国法律也已经颁布,对人工智能有严格的规定。 规定了科技伦理审查的范围、标准、程序、职责等方面。

当然,规范并不意味着未来不会有进一步的发展。 北京大学计算机学院教授黄铁军曾指出,在大模型的开发过程中,也存在一些固有的风险,比如模型学到的知识不符合伦理和原则。 。 这些风险是可以提前控制的; 但也有一些技术的不断进步带来的风险,其解决方案也需要通过技术手段不断解决。 “要解铃,必须系铃。” 如果因为一些潜在的问题而不开发这项技术,它就不符合科技发展的规律。

综合来自法治日报、北京商报、海报报、澎湃新闻等