• 全国 [切换]
  • 二维码
    错改网

    手机WAP版

    手机也能找商机,信息同步6大终端平台!

    微信小程序

    微信公众号

    当前位置: 首页 » 行业新闻 » 热点新闻 » 正文

    AI应用对历史学界产生多维影响

    放大字体  缩小字体 发布日期:2025-03-29 15:46:06   浏览次数:3  发布人:14a7****  IP:124.223.189***  评论:0
    导读

    近年来,伴随着ChatGPT和DeepSeek等大语言模型的先后出现,生成式人工智能大模型技术开始广泛影响着人们的工作与生活。对历史学而言,一方面,生成式人工智能技术强大的资料处理和整合能力及其快速的文本生成能力,将在资料的收集、整理、翻译、应用等方面为研究者带来极大的便利,在研究方法、研究思路及研究范式等方面也会给学者们的相关研究带来新的启示,从而促进史学研究的发展。另一方面,我们应清醒地意识到

    nload="this.removeAttribute('width'); this.removeAttribute('height'); this.removeAttribute('onload');" />

    近年来,伴随着ChatGPT和DeepSeek等大语言模型的先后出现,生成式人工智能大模型技术开始广泛影响着人们的工作与生活。对历史学而言,一方面,生成式人工智能技术强大的资料处理和整合能力及其快速的文本生成能力,将在资料的收集、整理、翻译、应用等方面为研究者带来极大的便利,在研究方法、研究思路及研究范式等方面也会给学者们的相关研究带来新的启示,从而促进史学研究的发展。另一方面,我们应清醒地意识到,生成式人工智能技术的广泛应用,将在学术研究的准确性与原创性、学术规范与学术评价标准的更新、历史学教育课程体系的变革等方面产生多维冲击。

    01

    学术研究的准确性与原创性问题

    生成式人工智能技术对历史学界的首要冲击无疑是在学术研究的准确性和原创性方面。众所周知,史学研究需要大量严谨而真实的史料为基础,以追求事实真相及其背后的原因和规律为目标。然而,研究者在进行历史研究时,在利用ChatGPT和DeepSeek等生成式人工智能工具进行资料检索及应用时,会面临人工智能工具目前尚无法克服“AI幻觉”的严重干扰,从而导致研究者在使用相关参考文献时出现不准确,甚至完全错误的问题。根据清华大学研究团队2025年2月发布的研究报告《DeepSeek与AI幻觉》,所谓“AI幻觉”是指人工智能(尤其是生成式模型)在输出内容时产生与事实不符、逻辑错误或完全虚构的信息的现象。其典型表现包括虚构事实、逻辑矛盾和细节捏造等。产生“AI幻觉”的主要原因:一是训练数据的局限性;二是对上下文理解缺乏认知逻辑,容易出现断章取义或错误关联,从而给出与事实完全相悖的答案。

    在史学研究中,研究者越来越多地开始使用生成式人工智能工具对相关史料进行检索及整理。史学研究对参考文献的引用要求极高,通常要做到内容严谨,出处准确,需要研究者对相关内容和信息做反复甄别。然而,人工智能工具目前并不能完全区分一手材料和二手引用资料,有时会出现张冠李戴、虚构事实等问题。研究者在利用人工智能进行相关资料的检索与整理时,如果不去做多方面的考辨验证,那么,其研究工作将受到“AI幻觉”的严重干扰,利用不准确、不真实的史料文献所得出的研究结论显然也是不可靠的。更为严重的是,那些在校本科生和研究生在进行相关的课题研究和论文写作时,由于尚缺乏严格的史料批判能力,后果可想而知。此外,人工智能也可能存在某种偏见,从而导致史学研究出现某种不客观、不公正的问题。

    生成式人工智能除在文献检索及资料使用方面给史学研究带来严重干扰外,更深远的冲击还来自它对史学研究原创性的严重阻碍。美国斯坦福大学的最新研究报告显示,在校大学生过度依赖人工智能工具来做报告写作业,已经有将近90%的大学生不会再去预先构建知识的逻辑链条,而是直接把问题输入给AI工具,很快便可以获得结论和答案。长此以往,人工智能工具的使用将导致人的大脑的思考能力下降,进而导致思维的钝化、退化,甚至僵化。由此可以看出,如果研究者过度依赖人工智能技术,其独立思考的能力将受到严重影响。而史学研究的重要任务就是要在真实的史料基础上,利用研究者独特的情感和批判能力,对相关复杂的历史问题进行原创性解读,得出创新性的结论。如果学者们在史学研究或文本撰写中过度依赖人工智能技术,特别是在核心思想建构、文本生成等方面大量使用生成式人工智能技术,则史学研究的原创性无从谈起,相关研究更不可能深入。正如有论者所言,人工智能本质上是一种概率计算,而非知识的创造。原创性的学术研究需要研究者具有良好的思辨能力和理论思维,研究者在尽力避免“AI幻觉”可能带来的各种谬误的同时,更要时刻警惕人工智能技术可能给自身创新思维带来的危害。

    02

    学术规范和评价标准更新问题

    美国科技预言家凯文·凯利曾把AI视为“硅基外星人”。从某种意义上看,当前火爆全球的ChatGPT和DeepSeek等生成式人工智能工具可谓“超级硅基外星人”,它不仅可以在资料文献检索等方面给人们带来极大的便利,更可以运用其超强的文本生成能力,代替研究者撰写相关文本,帮助人们完成相关研究工作。这自然而然就带来一个非常严峻的问题:如果研究者在相关研究工作中使用人工智能工具生成相关文本、撰写研究性文章或著作,此行为是否属于学术不端行为?假如我们把人工智能看作“硅基外星人”,其生成的相关文本内容具有某种“版权”的话,那么相关人员在研究中使用其生成的相关文本,则显然侵犯了其版权,构成学术不端行为。

    正是从学术研究的原创性要求出发,目前一些高校、科研机构及期刊杂志社开始出台相关学术规范和学术评价标准,以规范学生和科研工作者在相关学习或科研工作中的行为。2025年2月,作为国内史学专业的著名期刊,中国历史研究院《历史研究》杂志社向学界正式发布了《关于规范生成式人工智能工具使用的启事》,明确规定“不接受生成式人工智能工具参与投稿署名”,要求作者投稿时出具相关书面说明,就生成式人工智能工具的使用情况做出承诺。就历史学界而言,面对人工智能技术快速发展的新形势,从促进史学研究的准确性和原创性目标出发,必须尽快制定出台一套符合时代发展要求的、合理且可执行的学术规范和学术评价标准。

    03

    历史学教育课程体系的变革问题

    作为21世纪世界三大尖端科技之一,人工智能可谓是新工业革命的核心技术引擎。就历史教育而言,生成式人工智能技术的不断发展将对人才培养模式及就业产生深远影响,传统的历史学教育课程体系面临着巨大的变革压力和挑战。作为人文学科,目前国内高校的历史学教育课程体系在一定程度上相对落后于新技术发展的总体形势。在生成式人工智能技术快速发展的今天,传统历史学教育课程体系需要补充新的相关课程,以培养符合当今时代需要的高层次人才。目前,虽然南京大学、上海交通大学、哈尔滨工业大学、华中科技大学、西安交通大学等国内知名高校已经开设了人工智能专业,浙江大学、深圳大学等相关高校也面向在校师生和社会公众开放了以DeepSeek为主题的在线课题,但尚未有高校的历史学专业开设相关的线下课程,对在校生的课程学习及学术研究进行专门训练。正如凯文·凯利所言,“你暂时不会被AI替代,但会被更擅长使用AI的人替代”。当缺乏专业的人工智能训练的历史学毕业生进入社会之后,他们在就业过程中无疑会遇到一系列无法克服的障碍。

    斯坦福大学等相关高校近年来关于人工智能影响的相关研究报告均指出了人工智能技术的普及将导致大规模就业结构的变革,建议通过政策调整和教育改革应对劳动力市场的系统性风险。在“数字鸿沟”已然存在的当今社会,生成式人工智能技术的发展将进一步冲击劳动力市场,那些接受过专业的人工智能训练,擅长用人工智能技术提升工作效率、拓宽工作思路的毕业生,将在劳动力市场上拥有更多的就业机会。人工智能是一种相对平等的技术,在生成式人工智能技术所带来的当今社会大变局下,高校的历史学教育课程体系亟须回应时代的需要而进行有效的变革,否则,按传统的历史学教育课程体系培养的毕业生将面临被时代大潮淘汰的风险。

    作者系江西师范大学历史文化与旅游学院教授

    来源:中国社会科学报

    责任编辑:郭飞

    新媒体编辑:宗敏

    如需交流可联系我们


     
    (文/匿名(若涉版权问题请联系我们核实发布者) / 非法信息举报 / 删稿)
    打赏
    免责声明
    • 
    本文为昵称为 14a7**** 发布的作品,本文仅代表发布者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,发布者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们154208694@qq.com删除,我们积极做(权利人与发布者之间的调停者)中立处理。郑重说明:不 违规举报 视为放弃权利,本站不承担任何责任!
    有个别老鼠屎以营利为目的遇到侵权情况但不联系本站或自己发布违规信息然后直接向本站索取高额赔偿等情况,本站一概以诈骗报警处理,曾经有1例诈骗分子已经绳之以法,本站本着公平公正的原则,若遇 违规举报 我们100%在3个工作日内处理!
    0相关评论
     

    (c)2008-现在 cuogai.com All Rights Reserved.