一夜之间,chatgpt 刷屏社交媒体。与之相关或悲或喜的讨论层出不穷。
在”只有你想不到的问题,没有chatgpt回答不了的问题”的观点笼罩下:
悲的,是因为chatgpt太好用了。
喜的,也是因为chatgpt太好用了。
#什么是chatgpt?
chatgpt是人工智能组织openai于2022年11月推出的聊天机器人软件,全名为:chat gennerative pre-trained transformer,内部存有来自互联网的数十亿个单词。
chatgpt是基于自然语言处理(nlp)和机器学习(ml)技术的聊天机器,;它使用神经网络模型(gpt-3)来识别和理解用户的输入。
该软件使用方便快捷,只需向其提出需求,即可实现文章创作、代码创作、回答问题等功能。
你可以随意向它提问,例如八月出生的小猫,应该给它取什么名字?怎样写出纸牌游戏的代码?写一份房地产行业的项目计划书?以“主旋律影视作品中的创新传播策略研究”为主题,写一篇论文提纲……这些五花八门又或是专业的问题,chatgpt都可以瞬间回答。
在教育领域,chatgpt受到了大学生的青睐。调查显示,89%的美国大学生承认使用chatgpt做家庭作业,53%的学生用它写论文,48%的学生使用chatgpt完成测试。
chatgpt不仅能通过学习人类的语言进行对话,还可以根据上下文进行具有意义和有趣的回复,这让人们更直观地感受到了人工智能的魅力。
全新人工智能聊天机器人chatgpt被认为正在掀起新一轮ai革命,其推出仅仅两个多月,chatgpt的全球用户已突破1亿。
chatgpt用自身的文本创作能力不断刷新着我们的认知,那么,ai技术的发展将给我们新闻业带来怎样的改变呢?是技术改变了我们,还是我们永远引导着技术?还需要辩证看待。
#chatgpt带来的社会变革
(一)实现ugc到aigc的助推器
ugc全称为user generated content,也就是用户生成内容。
aigc是继ugc、pgc之后新型利用ai技术自动生成内容的生产方式。
伴随着互联网的兴起,智能手机的普及,youtube、facebook等平台涌现,内容创造从专业创作(pgc)转型为用户创作(ugc)的转向,ugc成为了内容生产的主流模式。
而在不远的将来,ai协助内容生成(aiugc)与ai 创作(aigc)将为我们提供更低的创作门槛以及更丰富的创作思路。
在这两个阶段中,内容生产主体从人类本身开始向人工智能转移,主要区别体现在内容的生产效率。
知识图谱的多样性以及提供更加动态且可交互的内容上,人脑只能基于自己的知识图谱进行少数方向的信息处理,而 al 能从更庞大的知识体系中进行多个方向的处理,进而提供更多的创作思路。
图片来源:中国信息通信研究院和京东探索研究院
而以chatgpt的出现所带来的内容生成能力将会为当今从用户创作(ugc)到ai创作(aigc)的转型提供关键的辅助支持。
比如chatgpt对于文字模态的aigc应用具有重要意义,在归纳性的文字类工作中展现出了极其优异的表现。
其中在chatgpt的 助下,传统的文字类工作中的一些方向会涉及到交互的全面改革,比如机器翻译不再是传统的文本输入。而是随时以助手问答的形式出现。甚至给出一个大概笼统的中文意思,让机器给出对应英文。
相关报告显示,中短期内chatgpt能在办公辅助类工具中迅速落地,例如会议总结、文件翻译、例行护提升办公效率并节省人力成本。
下面是相关翻译实例:
(二)打造新闻传播新业态
随着ai技术的成熟,如今,以chatgpt为代表的聊天机器人以更加深入、多样的形式参与到了新闻传播的全链条再造中。
chatgpt不仅可以生产财经、体育等特定议题和类型的新闻写作,还可以进行新闻评论等带有一定“思辨性”的文本撰写。
2020年,openai开发的gpt-3就已经能够撰写新闻评论并发表在了《卫报》之上。
2022年12月chatgpt问世之后,科普期刊《科学美国人》(scientific american)的编辑要求chatgpt模仿该媒体的文风,生成一篇有关chatgpt的评论,其文笔和风格的模仿都相当逼真。
除写作外,ghatgpt还可根据新闻的要求进行提纲撰写、采访对象的选择以及数据的收集等,甚至还可以根据具体的指令自动联系采访对象(例如,发送相关邮件)。
总体而言,在学理性和思辨性的层面上,机器人撰写的文本与专业人士仍然存在较大的差距,但值得关注的是,chatgpt在辅助新闻高效生产这方面迈出了突破性的一步。
(三)工具性vs人性:机器对人需求的把握
“‘工具性’很长时间以来是学者们理解技术的一种思路。”这种思路将机器与人的关系视为主客体的二元对立关系:人为了达到目的使用机器,机器处于被动地位。
但对于可与人互动的聊天机器人来说,以这种眼光看待未免有些过时。
聊天机器人在功能上趋向于契合乃至迎合最基础的人性需求,实则是在尝试超脱“工具性”而模拟“人性”,接近于保罗·莱文森所说的“人性化媒介”。
“我所热爱的是我真实的生活,因为它包含了我所有的经历和感受,是我每一天都在体验和思考的。”这句乍看上去充满了人类体悟和情感的话,实则出自人工智能聊天机器人 chatgpt。
在满足基本需求上,你可以列出本周工作的关键词,让它写一份工作报告;你可以让它 你订一张成都飞往北京的机票;你也可以让它分析今年的经济发展趋势……这些需求chatgpt都可以实现。
同时,聊天机器人也可以满足人的价值需求。
例如2016年美国大选期间,buzzbot的新闻聊天机器人就邀请用户提供其所在城市的竞选现场照片与视频,作为新闻信源的素材,随后再由专业团队对这些素材进行筛选,作为接下来新闻报道的内容。
这体现出“人类智慧与计算机学习的相互补充、相互延伸”,也是通过满足用户在新闻采集与生产中的参与愿望,丰富人的价值。
#chatgpt对传媒业的挑战
chatgpt 带来惊喜的同时,也引发不少和信息传播打交道的人士的担忧。
chatgpt能代写论文、代编程序、代发邮件,甚至可以代为参加线上考试……他能自主输出各类信息,那么,chatgpt对传媒业发起了哪些挑战呢?
(一)信任危机:虚假信息的生产与传播
随着人工智能技术在新闻传播领域的渗透,信息采集的方式将更为隐蔽,范围将不断扩展。
无论是智能热点搜集、智能新闻写作还是智能推荐, 都是建立在对海量数据的搜集和分析基础之上的,这将面临源数据被披露的问题。同时,数据收集会使公民的数据陷入非法收集、过度分析的危险。
除此之外,聊天机器人作为新闻生传播工具很容易被恶意利用,进行虚假的信息生产与传播,进而导致公民与新闻媒体间产生信任危机。
以chatgpa为例, 虽然chatgpa可以对部分语法进行纠正,但还是无法完全避免虚假信息的产生。
同时,因chatgpa自身的快速高效的内容生成能力,可以让聊天环节短时间内充满虚假信息。
如果再辅以有逻辑性,有深度的语言,更会使得读者对其内容“真假难辨”,导致“深度造假”。
(二)新闻生产:同质化内容使报道平庸化
不同于人类记者有个人经历、风格的差异,聊天机器人并无个体区别,这很大可能性会造成新闻同质化问题,也使得报道偏向平庸化,少了些人文色彩
。
特别是现在很多已经在传媒业应用的机器人,大多是按照事先设置好的模版进行信息的嵌套,是机械的、填鸭式的和流水线式的作业,大多以描述性文字为主,许多文本枯燥乏味。
这类千人一面的“快餐”似的产品,只会让新闻的品质大打折扣,从而导致读者审美疲劳。
如果完全使用聊天机器人进行新闻生产,公众接触到的新闻产品将会失去以往的纵深和精彩,逐渐平庸化。
(三)生产关系:职业新闻人的主体性冲击
聊天机器人智能化程度的提高使得职业新闻人作为生产者的主体地位面临着愈发严峻的挑战。
聊天机器人撰写文章的速度极快,可以短时间内产出多篇新闻,其自动生成内容所产生的成本也更低。与人类相比,这是聊天机器人具有其独有的优势。
以chatgpt为例,其可以生产体育、财经等多种类型的报道,还可以用多种不同的风格来呈现。
而职业新闻记者往往专攻某个特定的领域,这就使得职业新闻人在与聊天机器人的竞争中处于劣势地位,导致前者在财经、体育新闻等特定领域丧失了主体性。
#新型人机关系与信息伦理问题
(一)人的数据化与机器的“人化”
人类正在不断被数据化。
赫拉利(yuval noah harari)在《未来简史》中宣称:大部分的科学机构都已经改信了数据主义。“我们可以将整个人类解释为一个单一的数据处理系统,而单个人类则充当其芯片。”
数据化一切的潮流也驱动着传播学领域多方面的变革。数据主义观念号称正在创造新的价值观,并强调其变革是通过媒介实现的人工智能技术其实就是实现数据变革的一种媒介、手段。
以马斯克(elon musk)的人工智能研究实验室 openai开发的gpt-3为例,这是在chatgpt之前人工智能领域最强大的智能语言模型。
用户boppreh在hacker news上发帖称,当他向 gpt-3 输入他的网名想玩一次造句时,输出结果中意外地包含了他的真实姓名,但他一直非常注重保护个人信息,从未主动在网络上以任何方式将他的网名和真名联系在一起。
“如果我在 google 搜索结果或 facebook 上发现了我的个人信息,我可以要求它们删除,但 gpt-3 似乎不支持这样的操作。我们是否应该接受这们的情况:大型语言模型可能会泄露私人信息而我们没有追索权?”
那chatgpt是否也会出现这类情况呢?我们不得而知。
数据带来的隐性或显性的新型问题,也给人机关系中的伦理问题带来了全新的挑战。
一方面,为了满足人类的无尽需求,技术正在开发更高级的智能,机器越来越“人化”“类脑”化。另一方面,随着人类被不断“数据化”,智能技术又要规避人类过于丰富详尽的数据,要为了符合社会规则剔除部分“类脑”的特征,比如“记忆”。
(二)智能与社会的关系:谁是决定者?
全球广告传播巨头wpp的首席ai官daniel hulme表示“chatgpt本质上使我们朝着所谓的通用人工智能(agi)领域又迈进了一步,在agi领域,机器表现得像真正的人类。chatgpt不只是对人类创造力的复杂模仿,是在创造新内容”。
不容忽视的是,智能技术的发展似乎在形成一个类人意识的存在物,这将对人的类本质——自由的有意识的活动产生挑战,人们需要反思将同样拥有自由意识的人工智能体置于何处。
人们让渡出自己的信息给一个抽象的技术物,让其来决定自己的行为甚至是社会运行,结束的是由人管理的社会的不确定性与风险。
随着人工智能的能力和自主性增强以致达到我们都无法达到的高度时,其是否会凭借特有的能力超越人类的价值标准,然后理性地、按照程序设定地重新审视人类。
对此,高奇琦对技术异化导致的未来智能风险表示担忧,“科学从原本温文尔雅,带领人民走出黑暗时代的赛先生,变成了带领人民急速驶入未来世界,力量及其庞大却又找不到方向的巨型怪兽”。
目前,如同chatgpt一样的人工智能的广泛应用,以及对人生活的渗透所形成的人与人、人与人工智能的关系,使人不得不面对社会关系本质的挑战。
“机器和人,谁是决定者?”也许很难有所定论,但对这些可能现象的反思或许对于我们现在的选择与行动有更深刻的意义。
参考文献
[1]陈昌凤.人机何以共生:传播的结构性变革与滞后的伦理观[j].新闻与写作,2022,no.460(10):5-16.
[2]毛湛文,郑昱彤.“人机对话”的理想与现实:新闻聊天机器人应用的创新、困境及反思[j].青年记者,2020,no.678(22):34-37.doi:10.15997/j.cnki.qnjz.2020.22.011.
[3]沈湫莎. chatgpt爆火,人工智能的下一个范式来了吗?[n]. 文汇报,2022-12-20(005).doi:10.28814/n.cnki.nwehu.2022.004351.
[4]储舒婷. chatgpt火热“出圈”,我们如何应对新挑战[n]. 文汇报,2023-02-05(003).
[5]《从chatgpt看生成式人工智能aigc产业机遇与落地场景》