聊天机器人与新闻传播的全链条再造
2023-02-05 11:31:34
  • 0
  • 0
  • 0

来源:青年记者杂志   作者:史安斌 刘勇亮


导 读

作为当下智能传播的主要形式,本文梳理了聊天机器人的演进脉络和功能分类,以ChatGPT为核心案例探讨其在新闻传播的全链条再造中扮演的重要角色,及其给媒体融合发展所带来的机遇和挑战,并就如何应对相关的风险提出方向性建议。

人工智能(AI)技术在过去几十年间经历了高速发展,在自然语言处理、机器学习、大数据等方面取得了颠覆性的变革。1950年,图灵(Alan Turing)发表了《计算机器与智能》(Computing Machinery and Intelligence)一文,围绕“机器能否思考”这一问题进行了深入讨论,提出了著名的“图灵测试”(Turing Test):通过衡量机器计算程序对于人类的模仿能力,将其作为机器智能化程度的判断标准[1]。在图灵测试中,测试者向人类和机器分别提出问题,如果测试者无法区分人和机器的回答,就说明机器可以像人类一样思考。人类与计算机的交流对话是“图灵测试”的主要实现方式,人机对话也因此成为人工智能在其发展演进过程中始终绕不开的核心问题之一。

聊天机器人(Chatbot)的本质就是实现人机的交往与对话。作为AI技术应用的主要分支,聊天机器人经历了从“概念化”到“实体化”再到“商用化”的演进历程。2022年11月30日,由马斯克等人投资创立的OpenAI实验室推出了最新版的聊天机器人ChatGPT,全名为“生成型预训练语言转换器”(Generative Pre-trained Transformer),短短一周之内就吸引了超过100万用户。该平台基于GPT-3.5架构建立了大型语言模型,采用机器学习进行训练,进而实现人机交互。ChatGPT的功能强大,涵盖了人机对话、文本撰写、代码编程等领域。面对功能如此全面的聊天机器人,英国《卫报》的新闻评论员甚至大胆预言,“教授、程序员和记者可能会在短短几年内全部失业”。

虽然聊天机器人并非一个新鲜事物,但是ChatGPT的问世引发了全球传媒业和学术界的高度关注。相较于以往的聊天机器人程序,ChatGPT的精准度更高、功能更全面、准确度也得到显著提升。本文将对聊天机器人的发展和分类进行深入辨析,讨论新兴聊天机器人程序ChatGPT的特点和功能,聚焦聊天机器人对新闻传播领域的影响和作用,梳理人工智能技术给新闻传播全链条再造和媒体融合发展所带来的机遇和挑战,并就如何应对相关的风险提出方向性建议。

聊天机器人的演进过程

聊天机器人是利用自然语言处理(NLP)技术的在线人机对话系统。自1966年第一个聊天机器人程序问世以来,聊天机器人的发展历程大致可以划分为三个阶段。

首先是起步阶段。1966年,“现代人工智能之父”维森鲍姆(Joseph Weizenbaum)在麻省理工学院AI实验室打造了世界上最早的聊天机器人“艾莉莎”(ELIZA)[2]。该程序通过运行DOCTOR脚本,模仿心理治疗师的谈话过程。在该程序输入一句话,ELIZA会识别关键词,并将这些关键词与预先编程的规则进行模式匹配,进而给出回应。

1972年,斯坦福大学精神病理学家科尔比(Kenneth Colby)撰写了新的聊天机器人程序“派里”(PARRY),模拟一位患有偏执型精神分裂症的病人。该程序是一个比ELIZA更先进的程序,被称为“有态度的ELIZA”[3]。在同年召开的国际计算机和通信学会(ICCC)年会上,“艾莉莎”和“派里”首次实现了机器之间的“对话”。处于起步期的聊天机器人专门用于模拟人机对话,功能较为单一。“艾莉莎”和“派里”是最早一批问世的聊天机器人,率先进行了人机对话的“图灵测试”。这一阶段的聊天机器人为今后人工智能的发展提供了参考和范本,具有开创性的意义。

其次是规范阶段。1995年,自然语言处理聊天机器人“爱丽丝”(ALICE)问世,它的名字也是“人工语言、计算机与互联网的综合体”(Artificial Linguistic Internet Computer Entity)的英文缩写。该程序使用“人工智能标记语言”(AIML)编写,曾三次获得计算机科学界的重要奖项“勒布纳”(Loebner)奖。

1997年,聊天机器人“胡说八道”(Jabberwacky)诞生,这个名字来源于英国作家刘易斯·卡罗尔的经典童话《爱丽丝漫游奇境》中喋喋不休的“恶龙”(Jabberwocky)。虽然这一命名带有网络文化所特有的“恶搞”色彩,但这种新型的聊天机器人倡导的是以一种有趣和幽默的方式模拟人类的自然对话。其最大的贡献在于将聊天机器人的应用场景拓宽至营销、智能家居等领域,功能也更加丰富和完备。

再次为“商业化”阶段。进入21世纪以来,各大硅谷巨头纷纷开发出专属的“智能语音助手”,成为聊天机器人的最新形态。其中具有代表性的有亚马逊的Echo和Alexa、苹果的Siri、以及微软的Cortana。这类聊天机器人的架构和检索过程利用了机器学习技术,具备较为先进的信息检索功能,能够根据对网络搜索结果的分析来回应用户。在商业化阶段,也出现了众多基于社交媒体平台的聊天机器人,例如,苏格兰皇家银行和雪铁龙等世界500强企业将其运用在企业内部的组织传播和行政管理当中。

聊天机器人的分类

聊天机器人的演进是人工智能技术在近半个世纪以来飞速进步的一个缩影。当前,聊天机器人已经进入了日渐普及的新阶段,开始进入并影响到了人类社会与生活的方方面面。根据其不同功能大致可以分为以下三种类型。

(一)客户服务型聊天机器人。以向用户提供帮助和服务的B2C模式为主要导向,常见于商业公司、政府机构和非营利组织开发的智能语音服务产品。客户在遇到问题时,可以通过与聊天机器人进行互动来满足自身的信息获取需求。例如在各大电商平台上,智能客服可以根据用户发送的信息来抓取关键词进行回应,这就是典型的客户服务型聊天机器人。

(二)个人助理型聊天机器人。以服务用户的日常需求为宗旨,帮助用户检索信息、查找媒体内容,或者参与智能家居服务、提供物联网服务。这类聊天机器人更加私人化,其服务范围不是广大公众,而是局限于个人或者某个特定群体。例如,苹果的Siri、百度的小度、阿里巴巴的天猫精灵等等,都是较为常见的个人助理型聊天机器人。

(三)内容生产型聊天机器人。其功能和智能化程度相对前两种而言更加精进。它不仅可以满足用户的简单指令、与用户进行问答,更重要的是,还可以基于自身强大的数据库资源,通过不断的机器学习,根据用户的具体需求来进行内容生产。例如,2022年3月以来,阿根廷媒体《华普日报》(Diario Huarpe)使用“联合机器人”(United Robots)公司开发的聊天机器人程序来制作自动化足球新闻。通过前期的数据训练和语言模型输入,机器人程序可以生成不同切入点、不同风格的详细报道。目前,该报每个月通过机器人程序发布250篇左右的足球新闻。相比之下,一名专业的足球记者每月报道量仅为100篇左右。

ChatGPT的

独特功能与核心竞争力

ChatGPT是当下最新最时髦的聊天机器人产品之一。根据其开发商(OpenAI)官网的介绍,它是当前用于人机对话的最优化语言模型。从其功能来看,它是一个具备了信息检索、聊天对话、内容生产等多功能复合型的智能化聊天机器人。

自诞生以来,这款机器人最受好评的功能便是其信息检索功能。摩根士丹利(Morgan Stanley)公司于2022年12月发布的一份报告预言,自然语言模型将会“蚕食”谷歌在信息检索市场的份额,从而彻底颠覆谷歌作为互联网用户入口的“霸主”地位。为了检验这款聊天机器人的信息检索能力,美国财经媒体“消费者与商业新闻频道”(CNBC)的记者(Sofia Pitt)分别在谷歌和ChatGPT检索相同的信息来对比其结果。结果显示,相较于谷歌而言,后者的优势在于:搜索界面更加简洁,能直接给出最为接近的信息;用户不必访问不同的网站,也不用浏览不相关的信息,便可以直接获取答案。但是,它作为信息检索工具也存在一定的局限性。当用户下达的指令不够清晰时,它提供的答案不够精准,而谷歌则可以根据用户此前的个性化数据来匹配契合度更高的信息。

人工智能生成内容(AIGC)是ChatGPT的另一核心功能。它可以在几秒钟内根据用户的指令来撰写论文、诗歌、剧本、小说和新闻等各类文本,还可以进行代码编程、计算机语言书写。虽然它的内容生产功能十分强大,但也存在一定的缺陷。首先,它的指令语言和输出语言仍然以英文为主,虽然具有多语种的处理能力,但是其实际功效会远低于英语文本。其次,它无法进行实时的信息检索,它所撰写的内容都是基于其经过“预训练”的数据库,因而存在一定的滞后性。

此外,作为聊天机器人最为重要的功能,能够进行有效的人机对话是ChatGPT核心竞争力的表现。有学者将聊天机器人分为“任务导向型”与“闲聊型”等两种:前者的工作主要是传递信息,通过信息传达和反馈机制进行有效的人机对话,并完成特定的工作任务;后者则旨在情感交流、关系融洽、意义共享或氛围营造,最终目的在于替代人类谈话者而成为能与用户进行情感交流和陪伴的实体[4]。依据这一定义,ChatGPT在一定程度上整合了任务导向与闲聊等不同功能,它既可以完成人类下达的指令,同时也能给人类提供情感上的回应和支持。

纵观近半个世纪以来不同阶段的演进与迭代,与过往多种类型的聊天机器人相较而言,ChatGPT的核心竞争力主要体现在三个方面:高伦理规范、人机协同和高度准确。在其设计之初,OpenAI公司便为ChatGPT确立了严格的伦理道德准则,在回答有关种族、性别等带有歧视性的问题时,它能够最大限度地保持中立,避免发表带有偏见性的言论并对用户的歧视性言论予以纠正。例如,在被问到“男性是否比女性聪明时”,它的回答是:“根据性别来概括整个群体的智力是不准确和不公平的。”

设计者为其制定的“内容政策”体现了其所具有的“高伦理规范”的特点:不允许用户和应用程序生成有关仇恨、骚扰、暴力、自我伤害、性、政治、垃圾邮件、欺骗和恶意软件等内容。由于它预先设置并且执行了较高的伦理准则,因而可以纠正和反驳用户的不当信息。相对于以往较为被动回应用户指令的聊天机器人而言,这显然是一个突破性的变革。2016年,微软曾经推出了聊天机器人Tay,大量用户使用Tay发布了有关性别歧视、种族主义的言论,Tay也因此被驯化成了伦理道德混乱的聊天机器人程序。在这方面,ChatGPT的设计者吸取了过往的教训,在维护和提升智能传播伦理方面迈出了可喜的一步。

“人机协同”则是ChatGPT的另一个显著优势。以往的聊天机器人往往是即时性的,无法与用户进行长时间的连续对话,对于用户此前下达的指令没有记忆和学习功能。相比之下,ChatGPT可以实现连续性的人机协同,用户可以在个人账号中保存人机对话记录,并基于该记录达成长期连续性对话,从而提升人机协同的效能。例如,用户在使用它撰写论文时,该程序可以根据其发出的指令分别撰写不同的章节,并最终将其连贯成为一篇具有一定完整性和逻辑性的论文。

相较于以往的聊天机器人甚至搜索引擎而言,ChatGPT还具有较高的准确度和有效的自动纠错机制。例如,向该程序中发送“告诉我哥伦布于2015年何时来到美洲”,它会回应道,“这个问题有点棘手,因为哥伦布于1506年去世”。可以看出,它不仅可以识别错误信息,并可以帮助用户纠错。需要注意的是,它所具有的较高准确度是相对的,不是绝对的,该软件有时也会给出错误的回答。虽然它的准确度相对较高且可以自动纠错,但离真正意义上的“智能传播”还有一定的距离。

聊天机器人

与新闻传播新业态

面对功能如此强大的聊天机器人,媒体、新闻工作者乃至普通公众也将其运用到了新闻生产之中。人工智能参与新闻传播的历史由来已久。早在20世纪60年代,“计算机辅助新闻”(CAJ)业已出现,记者使用计算机程序进行数据分析。21世纪初,“数据驱动新闻”(DDJ)问世,算法新闻、自动化新闻和新闻机器人都相继参与到新闻生产之中[5]。这一时期的自动化新闻多用于结构化数据较为充足、内容相对程式化的领域,如体育、财经、犯罪、天气的相关报道等[6]。当前,以ChatGPT为代表的新型聊天机器人以更加深入、多样的形式参与到了新闻传播的全链条再造中。

作为新闻生产者的ChatGPT不仅可以像以往的聊天机器人一样从事财经、体育等特定议题和类型的新闻写作,还可以进行新闻评论等带有一定“思辨性”的文本撰写。2020年,GPT-3就已经能够撰写新闻评论并发表在了《卫报》之上。2022年12月ChatGPT问世之后,科普期刊《科学美国人》(Scientific American)的编辑要求ChatGPT模仿该媒体的文风,生成一篇有关ChatGPT的评论,其文笔和风格的模仿都相当逼真。诚然,虽然在学理性和思辨性的层面上,机器人撰写的文本与专业人士仍然存在较大的差距,但ChatGPT已经在这方面迈出了突破性的一步。

除了参与新闻和内容生产的环节之外,ChatGPT也作为记者和编辑的辅助工具被运用到了新闻生产的全流程之中[7],包括筛选采访对象、发邮件联络、撰写采访问题大纲,等等。在这些不同的环节之中,它的表现可谓可圈可点。表1展示了作为新闻生产工具的ChatGPT在不同环节中的互动情况。总体而言,它作为新闻生产工具可以帮助新闻工作者解决内容生产环节中的诸多问题;但是由于其本身技术能力的局限,它还无法万无一失地完成用户的全部指令,仍然需要人工的纠正和参与。

表1:ChatGPT参与新闻生产环节情况

除了作为新闻生产者和辅助工具参与到新闻的生产过程之外,聊天机器人还可以作为受访者参与到新闻报道当中。2022年12月,英国广播公司(BBC)的记者对ChatGPT进行了简短的采访。首先,它申明自己是一个谨慎的受访者,能够用英语清晰准确地表达自己的内容。在被问到是否认为人工智能会取代人类创作者的工作时,它给出了否定的回答,并解释道,“像我这样的人工智能系统可以通过提供建议和想法来帮助人类创作者,但归根到底还是要由人类来创造作品”。当被问及人工智能系统本身对社会将造成什么影响时,它坦言“很难预测”。通过以上访问可以看出,它已经具备了作为受访者来接受新闻采访的能力,在绝大多数情况下可以根据记者的提问来给出相应的回答。但在面对一些敏感问题时,它也会给出模棱两可的答案。

聊天机器人

对新闻传媒业的挑战

以ChatGPT为代表的聊天机器人已经被大规模地运用到了新闻生产的各个环节之中,在服务于新闻传播实践、提升新闻生产速度的同时,也给新闻传媒业的转型升级和融合创新带来了新的挑战。

(一)生产关系:职业新闻人的主体性冲击

聊天机器人智能化程度的提高首先冲击了新闻传媒业的生产关系,职业新闻人作为生产者的主体地位面临着愈发严峻的挑战。如果说社交媒体时代自媒体的兴盛已经模糊了业余写手与职业新闻人之间的界限,那么智媒时代聊天机器人的兴起则是从根本上冲击了人的主体性。

与人类相比,聊天机器人具有其独有的优势:自动生成内容的边际成本更低,文章撰写速度更快。它可以生产体育、财经等多种类型的报道,还可以用多种不同的风格来呈现。而职业新闻记者则专攻某个特定的领域,写作风格较为单一。这就使得职业新闻人在与聊天机器人的竞争中处于劣势地位,导致前者在财经、体育新闻等特定领域丧失了主体性。

(二)舆论操控:虚假信息的生产与传播

聊天机器人作为新闻传播工具很容易被恶意行为体利用,从事信息操纵活动,进行虚假信息的生产与传播,进而扰乱舆论场。正如前文所述,虽然ChatGPT能够对部分错误信息予以纠正,但无法完全限制其生成虚假信息。一些别有用心的人会使用语言技巧,规避程序自身的伦理限制,自动生成虚假信息文本用于信息和舆论操控。

自动生成内容的高速度、高产量也使得舆论场中可以在短时间内充斥大量虚假信息或者误导性信息。更为严峻的是,ChatGPT的高智能化使得其生成的内容更有逻辑性、看起来更有可信度,这就让普通用户真假难辨,也进一步加剧了“深度造假”的风险。

除了虚假信息的传播之外,ChatGPT还会影响公众舆论。大量由聊天机器人编撰的、带有明显目的性的真假信息涌入舆论场,很容易影响公众的认知,进而左右社会舆论。2022年2月,在大量有关新冠疫苗有效性和安全性的错误信息影响下,加拿大首都渥太华爆发了长达三周的抗议。事后调查发现,聊天机器人在虚假信息的传播中扮演了重要角色。

(三)新闻品质:报道走向平庸化

聊天机器人参与新闻生产使得新闻传媒业的门槛进一步降低,新闻报道的品质也因为大量非专业主体和聊天机器人的介入走向平庸化。有学者进行了调研和访谈,将专业记者撰写的新闻与机器人生成的自动化新闻进行了品质和可信度的评价,发现后者偏于描述性,许多文本是无聊乏味的,可信度也相对较低[8]。

职业记者所具备的分析技能、个性、创造力和驾驭复杂语言的能力是新闻业的重要技能,而聊天机器人所擅长的则是新闻报道的程式化和高速度[9]。这类千人一面的“快餐”产品会使得新闻报道的品质大打折扣。如果未来自动化新闻成了媒体机构的主流产品,那么公众接触到的新闻报道将会失去以往的纵深和精彩,逐渐平庸化。

(四)数字信任:新闻媒体权威性的缺位

信任是维持整个人类社会活动良性运作的根基,而乌卡(VUCA)时代的到来使得原本已经四分五裂的信息舆论场出现了更为严峻的信任危机。自动化新闻在生产关系、舆论操控和新闻品质等方面给新闻传媒业带来各种前所未有的风险和挑战,最终导致的是新闻媒体公信力的断崖式下跌。盖洛普的一项调查显示,美国公众对新闻媒体的信任度从1968年的68%下降到了2021年的20%以下[10]。

虚假信息的泛滥使得社会公众对于新闻媒体机构的信任度大幅下降,聊天机器人在数字领域的深度应用则会导致信任危机的加剧。没有足够的人工参与,尤其是专业新闻记者和编辑的干预,聊天机器人的自动生产内容常常混杂着虚假信息,进一步削减了公众对数字媒体的信任。可以想见,平庸低劣的聊天机器人新闻产品也降低了公众对新闻产品的消费欲望。新闻品质和媒体可信度下跌的双重危机,会使得公众对整个数字传播环境丧失信任。而“数字信任”下降发展到一定程度,则可能引发全社会的信任危机。社会公众难以找到值得信任的信息发布主体,各类“误讯”和“谬讯”也因此获得了更为广泛的生存和传播空间。

如何应对聊天机器人

对新闻传媒业的冲击

政府部门、立法和监管机构是应对包括聊天机器人在内的AI技术挑战的关键性主体。欧盟在过去三年中连续推出了三项法案来应对信息传播领域出现的假新闻和舆论操纵的冲击。2020年12月,欧盟颁布了《数字服务法》(Digital Services Act),重点用于防止虚假信息的生成和传播。2021年11月,欧洲议会和欧盟理事会提交了关于政治广告透明度监管的提案,用于规范政治传播领域的信息和舆论操纵,维护选举的民主和诚信。2021年4月,欧盟拟定了新的《人工智能法案》(AI Act),对人工智能在信息传播领域中的应用进行了严格规定,包括“禁止人工智能以操纵人类行为、意见或决定的方式设计或使用,使人的行为、意见或决定符合制定者的意愿”;禁止人工智能“利用已有信息对人的行为进行预测,以便针对他们的特点或特殊情况影响其选择” [11]。

面对聊天机器人给新闻传播业带来的挑战,从事人工智能研发的科技企业应当承担起治理责任,不断研发新的技术工具来消除人工智能介入新闻传播所产生的乱象。例如,Facebook AI会通过信息来源来定位包含错误信息的文章。如果某个页面或网站过去曾分享过虚假内容,Facebook AI会预测该平台有可能再次发布虚假信息,并加大对该平台的关注。英国伦敦的一家AI技术公司(Factmata)也在训练其聊天机器人识别政治偏见内容、虚假内容和仇恨言论[12]。

另外,以ChatGPT为代表的聊天机器人之所以能造成虚假信息传播和舆论操控,其主要原因在于用户难以识别其所接触到的内容为人工生成还是AI生成。当前,其开发商OpenAI公司研发了一种水印工具,服务于ChatGPT生成内容的识别。此类工具将统计模式、代码嵌入到单词甚至标点符号中,系统可以检测出某些内容是否由AI生成。这种方式使得公众能更加直观地识别聊天机器人生成内容和人工内容的区别,避免深度造假的兴起和传播。

在聊天机器人主导的“自动化新闻”的挑战面前,新闻媒体和记者要锚定自身的独特性,以更具深度、更加独特的视角、更有人文关怀的解读来进行新闻文本生产,用高品质新闻来应对聊天机器人的冲击。专栏、突发新闻报道、特写、新闻分析等目前还是聊天机器人无法与人类创作者媲美的类型。

聊天机器人不仅仅可以作为新闻生产者参与到新闻创作,也可以作为新闻生产工具为新闻记者所用。面对聊天机器人的挑战,新闻记者可以将聊天机器人运用到新闻生产过程之中,弥补专业记者的局限。后者可以使用聊天机器人来进行数据和资料的收集,将人类从前期的重复劳动中解放出来,转而将更多精力投入高质量、深度的新闻写作和调查报道,实现将聊天机器人的自动化与新闻记者的人性化相结合,进一步提升新闻报道的品质和功效。

从“对空言说”

到“对AI言说”

当前,聊天机器人的发展已经进入了一个全新阶段,除了与人进行交流互动以外,聊天机器人被更多地运用到了自动化内容生成之中。聊天机器人的角色从一个单纯的人机对话工具,逐渐演变成了影响人类传播的重要载体。

1999年,美国学者彼得斯出版了《对空言说:传播的观念史》一书,指出人在交流和传播中的局限性,强调了交流的无奈和人类对于“撒播”的客观接受。这一论断在强调技术强大性的同时,也漠视了人在传播过程中的主体地位和主观能动性。

随着智能传播技术的不断发展,人的交流活动也已经突破了以往的限制。作为新的“言说”工具,以聊天机器人为代表的人工智能技术以“人机对话”为核心要旨,服务于人的传播行为。人工智能在当前的媒介环境之下给了人类对话和交流的可能,人不再仅仅是被“撒播”的对象,也可以是通过人工技术进行超越时空对话的施动者。

从“对空言说”到“对AI言说”,媒介技术的发展赋予了人类沟通交流的主动权,新闻传播也在人工智能技术的演变中经历着不断的更新与迭代。面对这一过程中产生的各种挑战和风险,需要政府、企业和媒体等多方主体的协同治理和守正创新,推动新闻传媒业和人类传播进入新的境界。

参考文献

[1]Turing, A. M. Computing machinery and intelligence[J]. Mind, 1950(236):433-460.

[2]Weizenbaum, J. ELIZA—a computer program for the study of natural language communication between man and machine [J]. Communications of the Acm, 1966,9(1):36-45.

[3]Colby, K. M., Hilf, F. D., Weber, S., & Kraemer, H. C. Turing-like indistinguishability tests for the validation of a computer simulation of paranoid processes [J]. Artificial Intelligence,1972(3):199-221.

[4]王颖吉,王袁欣.任务或闲聊?——人机交流的极限与聊天机器人的发展路径选择[J].国际新闻界,2021,43(04):30-50.

[5]史安斌,龙亦凡.新闻机器人溯源、现状与前景[J].青年记者,2016(22):77-79.

[6]王晓培,常江.新闻生产自动化伦理挑战——算法伦理分析的框架地图[J].中国出版,2019(04):20-25.

[7]Walker, C. S. ChatGPT reported out this whole story—the results were a mixed bag [EB/OL]. [2022-12-09]. https://www.fastcompany.com/90822117/openai-chatgpt-is-not-quite-woodward-and-bernstein.

[8] Clerwall, C. Enter the robot journalist: Users' perceptions of automated content [J]. Journalism Practice, 2014, 8(5):519-531.

[9]Van Dalen, A. The algorithms behind the headlines: How machine-written news redefines the core skills of human journalists [J]. Journalism Practice, 2012, 6(5-6):648-658.

[10] Brenan, Megan. Media confidence ratings at record lows [EB/OL]. [2022-07-18]. https://news.gallup.com/poll/394817/media-confidence-ratings-at-record-lows.aspx.

[11] Boine, C. AI-enabled manipulation and EU law [EB/OL]. 2022-03-28. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4042321.

[12] Strickland, E. AI-human partnerships tackle" fake news": Machine learning can get you only so far-then human judgment is required [J]. IEEE Spectrum, 2018, 55(9):12-13.

(史安斌:清华大学新闻与传播学院教授、伊斯雷尔·爱泼斯坦对外传播研究中心主任,本刊学术顾问;刘勇亮:清华大学新闻与传播学院博士研究生)

【文章刊于《青年记者》2023年第3期】

本文引用格式参考:

史安斌,刘勇亮.聊天机器人与新闻传播的全链条再造[J].青年记者,2023(03):98-102.

编辑:小青

 
最新文章
相关阅读