中国财经新闻网

您现在的位置是:首页 > 财经热点 > 正文

财经热点

专家:ChatGPT写论文须对AI技术进行制度规范和约束

科技   学术   科研   论文   抄袭  
财经网 2023-12-08财经热点
针对用ChatGPT写论文所产生的便捷与风险并存情况,专家表示——须对AI技术进行制度规范和约束◎本报记者 张 晔以ChatGPT为代表的生成式人工智能技术……

人工智能技术必须受到制度规范和约束

◎本报记者 张晔

以ChatGPT为代表的生成式人工智能技术,凭借其强大的文本生成能力,不可避免地渗透到了写作领域。 当人们还在惊叹AI文章的流畅结构和精确表达时,有些人已经熟练使用ChatGPT作为撰写学术论文的工具。

日前,江苏省科技厅监督评价处处长顾军做客江苏广播电视台新闻频道《政风热线》时回应称,将组织自查自评。对科技人员公开发表的论文进行审查和抽查,并进行科技伦理审查。 引导科技人员提高诚信意识。

那么,像ChatGPT这样的生成式人工智能技术可以用于学术论文写作吗? 如何防范人工智能技术滥用引发的学术不端行为? 科技日报记者采访了相关权威人士和业内学者。

学术不端行为风险不容忽视

不可否认的是,ChatGPT能够生成连贯、逻辑性强的文章,给人们的工作和生活带来了便利。 但由此带来的学术不端风险也不容忽视。 国外研究人员发现,ChatGPT给出的答案是基于其模型训练的海量数据,这有时可能会限制人们的思维,有些答案甚至可能不准确。 例如,他们只选择对自己观点有利的数据来支持自己的观点,而忽略其他数据。

12月1日,《技术伦理审查办法(试行)》正式实施。 经查,记者并未发现任何与生成人工智能技术相关的规定。 目前,国内相关部门和科研机构还没有明确规定在ChatGPT上撰写论文的规定。 但无论怎么做,只要出现抄袭、抄袭、造假等学术不端行为,就会受到严肃查处和严厉处罚。

11月24日,国家自然科学基金委公布2023年第二批不端行为案件查处结果,其中数量最多的不端行为为抄袭、抄袭、伪造各类信息,共计15人,占62.5%。 %。 记者了解到,国内部分省份对科研论文进行了针对性抽查,重点打击抄袭、造假、重复发表等学术不端行为。 虽然ChatGPT并不是专门针对的,但这些问题可能与其有关。

江苏省科技厅监督评价处相关负责人表示,将进一步加强科技伦理审查。 同时,要求各单位对发表的学术论文中的学术不端问题进行自查和清理。 科技部门不定期组织主动抽查,不断更新学术不端行为管理程序和标准。

该负责人表示,防止人工智能技术滥用引发的学术不端行为将是未来科技管理部门的重点监管内容之一。 目前,国内科研单位正在开发相应的人工智能论文抄袭检查软件。 未来,使用ChatGPT撰写论文获得荣誉奖项和科研项目将越来越困难。

如何面对不可避免的AI技术

李千木,南京理工大学教授,长期从事人工智能系统安全和大数据挖掘研究。 在他看来,当人们谈论人工智能技术的负面影响时,也应该看到它们带来的便利和进步。

“人工智能技术是科学研究的辅助工具之一,它可以让我们更方便地调查某个问题,分析更清晰,判断更精准,收集数据和提供信息反馈更全面、更完整。如果我们使用这个工具合理来说,我们对科研成果会有更好的认识,整体的提升(包括但不限于论文)会有更大的效果。 李千木解释道。

那么,人工智能技术如何在实践中更好地服务于科学研究,而不是成为抄袭和造假的工具呢?

李千木表示,首先,人工智能技术的使用要有制度规范和限制。 例如,《科技伦理审查办法(试行)》将于12月1日实施,规定了科技工作者及其社区应遵守的价值观和社会价值观。 责任和行为准则。 希望这些制度和标准得到广泛宣传和实施,让更多的科研人员了解和遵循。

二是增强各界对AI技术的理解。 李千木认为,在人类社会和科学发展的每一个阶段,抄袭几乎是不可能完全避免的。 利用人工智能技术抄袭、剽窃、谋取某些利益的行为必须严厉打击。 然而,提高人们对人工智能技术的认识并推广其使用,将有助于推动社会进步和技术发展。

“比如,利用人工智能广泛收集信息,可以让我们的论点和想法更加可行和有效,这本身并不是一件坏事。” 李千木表示,面对海量数据,他们很难全面有效地收集所需信息,而AI工具可以更高效地完成这项工作。

但出于种种原因,许多在科研论文中使用人工智能的作者并不愿意披露这一事实。 “我坚持认为,当人工智能技术用于论文写作和数据收集时,必须在参考文献中注明。” 李千木说道。

不难看出,人工智能在当前的科学研究工作中发挥了重要作用。 更重要的是,人们似乎别无选择——面对AI,没有必要回避,也没有办法回避。

目前国外大学已宣布解禁ChatGPT的使用,并介绍了详细的使用原则。 因此,多位科研人员对记者表示,不应一刀切地反对人工智能技术在科学研究中的应用,也不应忽视人工智能引发的学术不端行为。 (科技日报)