媒体传真

    首页 / 媒体传真 / 正文

    媒体传真

    科技部发文禁止人工智能生成申报材料

    重重挑战下,培养“AI素养”成为必修课

    发布时间:2024-02-07 点击次数: 作者:张宣 杨易臻 责编:焦钰茹 王晓艳 来源:新华日报

    近日,科技部印发《负责任研究行为规范指引(2023)》,提出不得使用生成式人工智能直接生成申报材料,不得将生成式人工智能列为成果共同完成人,同时强调科研人员应把科技伦理要求贯穿到研究活动的全过程。

    从2022年底ChatGPT横空出世,到国内外掀起“百模大战”,生成式人工智能成为了人们写作的新帮手,“头脑风暴”、数据分析、图表生成……功能之强大让许多人高呼“水平超越自己”。然而,人工智能辅助写作也带来了学术诚信、信息造假等担忧。

    如何界定“AI写文章”

    在机器学习和自然语言处理的早期阶段,机器还很难进行写作、绘画等创造性活动。直到2020年,OpenAI公司发布了GPT-3模型,所谓“大语言模型”才真正进入人们的生活。“大语言模型的出现,使得AI工具能够模仿人类写作,生成具有逻辑完整、内容清晰的虚拟文本。”江苏省科技发展战略研究院副院长张华表示。

    1月17日,具有“日本最高文学奖项”之称的第170届芥川文学奖公布得主,日本女性作家九段理江夺魁。在颁奖当日的新闻发布会上,九段理江坦言自己在创作过程中使用了人工智能,书中大约有5%的内容一字不差地取自ChatGPT。她还表示,生成式AI有助于释放创造力,其言论在网络上引发了激烈讨论。

    生活中有多少人在使用AI写作?根据近期英国高等教育政策研究所发布的调研,1250名英国本科生中有53%的学生正在使用AI写论文。使用AI的学生中,25%的人用AI来制定论文主题,还有5%的学生承认曾直接将AI生成内容复制粘贴到论文中。

    “这一现象已经不是新问题了。我们曾经发现,学生的毕业论文里,有的段落的中文‘不像中文’,之后才知道,学生是将自己以前发表的英文论文用AI工具翻译成中文粘贴过来。”江苏省人工智能学会自然语言处理专业委员会副主任、37000cm威尼斯人工智能学院副院长戴新宇教授分享了一段令他哭笑不得的经历,他表示,此类“翻译抄袭”也是现在较为隐蔽的一类学术不端行为,目前一些查重软件已可以实现“跨语言”检索。

    对于此次科技部针对学术材料出台新规,戴新宇表示,“从国家、社会管理的角度来看,对于生成式AI的约束是必要的。但从实际实施过程中,还需要对‘什么是生成式人工智能创作’进行界定。比如,用AI生成提纲,再自己进行修改,是否算作‘人工智能生成内容(AIGC)’?还是材料全部由AI生成,一字未改,才被界定为AIGC?”戴新宇表示,人工智能已被广泛运用于学术研究、工业制造、政府公文等领域中,是否全盘禁止使用,还是接受一定程度的AI辅助,还有一些较为模糊的地带。

    “科研项目申报材料,最核心的就是要体现研究工作的架构和思想。如果使用人工智能来生成,在可行性、创新性方面都会大打折扣。出发点不再是贴合实际需求进行研究,而是‘为了创新而创新’。”张华表示。

    发展“负责任的人工智能”

    “作弊与反作弊”的过程,犹如一场你追我赶的无限博弈。戴新宇介绍,目前已有一些AI识别的方法和技术,比如数字水印。自2023年,抖音、小红书等社交平台纷纷要求创作者在人工智能生成的内容上明确标注,根据实际情况勾选“内容由AI生成”。戴新宇提供了一种思路,“正如网络实名制管理一样,如果AI生成内容也能拥有一张‘数字身份证’,被标注上源头,就可以追溯到内容生产者,各人对自己生产的内容负责。”

    此外,还有通过分析文本中词汇的分布的技术,用来辨别内容是否为AI创作。“但即便使用AI检测工具,仍会有‘漏网之鱼’。还是以学术论文为例,对于注重文字表达的学科,如人文社科领域,直接使用AIGC的痕迹非常容易被发现,但在一些理工科领域,隐蔽地使用AI进行数据生成、加工和处理,往往难以发现。”

    如何将人工智能的开发和使用限制在合理可控的范围内?戴新宇提出,“完全通过技术手段解决问题,终究会让我们陷入一个你追我赶的怪圈。目前世界各国都在人工智能监管上发力,发展‘负责任的人工智能’,需要通过不断完善的法律规定,从前端的社会规制上进行设计,规范人工智能的研究以及工具的使用。”

    2023年9月,中国科学技术信息研究所等机构联合发布《学术出版中AIGC使用边界指南》,建议研究人员使用生成式人工智能直接生成的稿件文字等资料(AIGC)必须提供明确的披露和声明,否则将构成学术不端行为。《指南》还规定,研究人员使用的数据必须是研究人员进行实验并收集所得,如使用AIGC提供的统计分析结果需进行验证。

    “如果将AI视为一个‘虚拟人’,这个‘人’总会有传播小道消息、偏见歧视的问题,正如对于人类社会本身需要监管,工具也更需要受到法律规制。”戴新宇说。

    生成式人工智能造成的“混乱”不仅发生在学术领域。“人工智能的不当使用,对于公民、企业带来的一大问题,就是产生虚假信息。”张华说,生成式人工智能的发展中的另一问题是对个人隐私的数据滥用。大量的数据是训练人工智能的必然要素,将个人隐私信息、个人创作的作品“喂”给大模型的事件时有发生。比如,此前就曝出OpenAI公司“盗取”用户输入ChatGPT的内容,训练其AI算法模型。

    张华表示,尽管国家已经出台了相应的规章制度,但从外部监督到行业自治还是一个长期的过程。研究人员、企业平台、相关行业组织、政府能够各司其职、形成合力,是解决问题的关键。

    学好人工智能这门“通识课”

    AI为我们的生活带来重重挑战,专家普遍认为,应注重培养具备相应能力的人才队伍。“在人工智能时代下,培养创意型人才至关重要。”张华告诉记者,现在许多人对AI是否会替代自己的岗位感到焦虑,这一担忧主要来源于AI确实能够替代重复性、创新性不强的工作。“以写作为例,基础性的文案整理容易被替代,但AI是难以进行创意型工作的,假使让AI写一篇仿照鲁迅风格的文章,它可能只会生成一些逻辑不通的文章,词藻堆砌而缺失内涵。”

    作为研究人工智能的学者,戴新宇指出,鼓励学生学习并使用AI工具是当下的大趋势。比如,在大规模的文献调研中,AI工具可以快速检索到相关文献,并总结归纳。在考古领域中,甚至可以使用工具分析大量历史数据,生成新的发现。但同时,培训学生合理使用AI也是至关重要的,使用AI进行学术造假也应承担必要的责任。

    “人工智能正在演变为一门‘通识课’,正如学生多多少少都要学习一些数学、英语知识。能够使用AI工具提升检索效率、拓展研究思路,都是很好的使用方法。”戴新宇说,是否会使用AI工具这一素养,会将人与人的差距拉大。不会使用AI,或者过度依赖AI提供的信息,都是值得警惕的。

    如果将人工智能定位为一个研究助手,还有巨大潜力可以挖掘。在跨学科、交叉学科的研究中,人工智能也会起到重要的作用。戴新宇举例,人工智能工具就像是一个“外接大脑”,比如当下许多人文社科的研究也趋向量化实证研究,一位没有学过编程的文科生,也可以用AI编写代码帮助研究。

    人工智能代替了一部分基础性的岗位,但也催生了许多新兴工作岗位。“比如涉及到‘人机共生’社会的治理、伦理法律的研究、人机交互心理的研究,都是前景可期的。以计算机行业为例,以往有许多毕业生可能从事网络安全、软件安全领域,现在有许多应届生会从事大模型安全领域。我相信未来也会有更多新兴岗位的出现。”戴新宇说。