适合情感夜话的文章情感类的文章怎么写情感类公众号名称情感电台文本治愈系

  • 2023-06-07
  • John Dowson

  两周前,北京大学新闻传播学院教授胡泳在他的同名公众号上发布了一篇题为《技术加速着也改变着流行》的文章,提出了「所有流行,都必须通过技术实现,而技术本身也越来越成为一种流行」的观点

适合情感夜话的文章情感类的文章怎么写情感类公众号名称情感电台文本治愈系

  两周前,北京大学新闻传播学院教授胡泳在他的同名公众号上发布了一篇题为《技术加速着也改变着流行》的文章,提出了「所有流行,都必须通过技术实现,而技术本身也越来越成为一种流行」的观点。

  胡泳是最早带领我接触互联网的老师,也是国内最早从事互联网和新媒体研究的人。早在1997年,他就出版了《网络为王》一书,首次向国内受众介绍了互联网的诞生、发展、现状以及未来趋势。26年过去,作为互联网科技日新月异的见证者和传播启蒙者,早在ChatGPT等大语言模型引发众声喧哗之前,胡老师就在密切关注AI了。

  我好奇在对新技术的想象力上,学界和业界的关注重心有什么不一样;从传播学的视角,胡老师又将如何思考AI对各行业和人类社会的具体影响。借着校庆返校之机,我有幸约到胡老师,于是有了这次访谈。

  Q:每一次技术都会引发人们很多的想象,您是什么时候开始注意到OpenAI和LLM的?对于您来说,真正相信这件事情会成为下一个新范式的拐点是什么时候?是什么事情触动了您?

  我刚出版了一本书《流行之道:在潮流中把握真实世界》(北京联合出版公司,2022年11月第1版),里面提到一个观点——用户的快速增长是最简单地判断一件事情是否可以成为流行的标准。2022年11月30日ChatGPT上线月月活用户就过亿了。

  Q:我有一个不知道是不是对的观察。学界对于新技术的出现通常是批判性的接受,抱有谨慎的乐观,而业界通常是先用了再说,能立刻带来显而易见的好处,风险意识可以暂且后置。对于人工智能的发展对人类社会可能带来的改变,您怎么看待?

  从整体来看,业界对新技术的应用和发展,中美都差不多,大家总是企图找到下一个大风口,期待可以借此获得高速增长,创造用户数以十亿计的「杀手级」应用。

  Pichai:你知道,我有两种思考方式情感类公众号名称。一方面,我觉得没有,因为我们作为社会机构思考和适应的速度,与技术发展的速度相比似乎不匹配。另一方面,相比任何其他技术,我看到更多人在其生命周期的早期担心它。

  Pichai的观点反映了业界普遍的功利性,只要这个事情是经营中不得不做,或者牵涉到很大市场的,就会做,无论有没有风险。业界认为社会会慢慢消化和承受这个风险。

  但这最终会埋下很多隐患。以「人工智能教父」而为大家所熟知的Geoffrey Hinton 从Google离职时曾表示,他对自己终身从事的工作是后悔的,因为可能会威胁到很多人的工作,甚至人类的生存。如果出现自动化和智能化武器,机器人又有编码能力,就可能通过自动化编程武器杀害人类。

  大家都知道在GPT-4火热出炉、人工智能军备竞赛方兴未艾的形势下,包括Elon Musk和苹果公司联合创始人Steve Wozniak在内的千余名科技领袖签署了一封公开信,恳请研究人员在六个月内暂停开发比GPT-4更强大的人工智能系统。

  但其实,马斯克上一封有关人工智能的公开信发表在2018年,呼吁制定「针对致命性自主武器的法律」,因为自动化武器可能会无差别杀人,没有伦理限制。

  其实早在OpenAI出来之前,Google已经研究AI很多年了,但一直比较小心克制,OpenAI的发布是对Google谨慎态度的巨大挑战。微软CEO Satya Nadella 甚至对Google公开叫板情感类的文章怎么写,说希望看到Google「跳舞」。他还说,「我想让人们知道,是我们让他们跳舞的」。

  我认为一个大科技公司的CEO这么轻佻地说话是很不合适的。从商业逻辑上讲,微软的Bing只有3%的市场份额,Google 有91%。Bing搞了这么多年才搞到3%,说明这个产品是不成功的,但是微软现在找到了这个机会,来撬动搜索引擎市场,它想做搅局者。

  业界是军备竞赛逻辑,社会如果不加以干预,就会很麻烦。一旦把人工智能武器化,结果会不堪设想。现在很难达成一个关于人工智能的国际协议,缺少全球治理框架和谈判机制。中美都以对方发展AI为由做自主研发,很难谈判。没有制约地粗放增长,就像蛮荒的西部一样,会发展出什么威胁人类的东西,都是不确定的。

  Q:作为观察者,在移动互联网时代,您觉得有没有一些关于行业变迁的假设,在当时看来逻辑非常正确适合情感夜话的文章,但最终被证伪了?原因是什么?

  上一波大的变迁是PC到移动,以iPhone手机面世为标志。当时我翻译尼葛洛庞帝的《数字化生存》①,他说未来人们一定会以手指操作界面。这个预测非常精准,是针对交互方式的预测,但尼葛洛庞帝没有预测到无线的爆发。

  在无线出现以前,我们的通讯硬件路径是电缆,埋在地下。后来有了光纤,容量更大,但卡在怎么入户上(即最后一公里)。当时人们还没有想到可以直接换无线。当然无线基站的连接仍然靠光纤。

  那时候无线的管理权在政府手上,频谱②也被严格监管,但无线最终大行其道。苹果搞出的APP模式,是完全建立在无线之上的,这也是没有预测到的。

  我一直认为APP的发展对互联网来讲并不是好东西。我们之前讲无穷的链接,有用且有益,但APP就是不能互相跳转的信息孤岛,这其实违背了互联网最初的意义。

  现在有很多APP平台垄断者,会用数据绑架你,让你被锁死在某个APP里。用户把个人数据贡献给平台,平台决定一切,离开了就寸步难行,变成了斯德哥尔摩症③患者。

  ①《数字化生存》:1995年出版,作者尼葛洛庞帝,美国麻省理工学院教授、《连线》杂志的专栏作家,媒体实验室创办人。该书描绘了数字科技为我们的生活、工作、教育和娱乐带来的各种冲击和其中值得深思的问题,是跨入数字化新世界的最佳指南。

  ②频谱:频率谱密度的简称,是频率的分布曲线。复杂振荡分解为振幅不同和频率不同的谐振荡,这些谐振荡的幅值按频率排列的图形叫做频谱。频谱广泛应用于光学和无线电技术等方面。在广播及通信的领域中,频谱会由许多不同的讯号来源共享。每个广播电台及电视台所传送讯号的频率均需在各自指定的范围内,称为「频道」情感电台文本治愈系。

  ③斯德哥尔摩症:又称斯德哥尔摩综合征、人质认同综合征,是指犯罪过程中的被害人对于加害人产生情感,并结成融洽、友好的关系,甚至反过来帮助加害人的一种情感联结。

  Q:您提到APP让信息无法互联互通,而大模型的出现加上背后的Plug-in的生态,可能会再次让信息互联互通,您如何看待这一现象?

  这是把双刃剑。当大模型接入到开放的互联网之后,可能会出现更多风险,因此要做相应限制。这种限制既包括对模型本身的,比如有些问题它会说不合适回答,不能触犯基本的人类伦理,也包含针对插件的,比如要符合它的安全要求才能接入大模型的生态。

  这和苹果治理APP商店类似,最后能成为什么样子,能不能真正实现互联互通和确保信息的安全,是开发者和大模型之间的一场博弈。另外现在有些插件本身就是应用的聚合,如果把背后链接数万种软件的插件接进来,一方面的确可以做很多事情,但同时治理风险也会成倍增加。

  Q:您之前在文章中提到,在过去三十年,网景的网络浏览器、Google的搜索引擎和苹果的iPhone是在移动互联网时代真正颠覆性的创造。这三者无论硬件或软件,其实都是人们获取信息的入口。有关于新入口的想象,也是这一波AI浪潮人们憧憬的大机会,它可能会重塑原有的移动互联网生态。AI新交互体验和ChatGPT的对话界面似乎正是这一波AI浪潮兴起的重要推动力,对此您怎么看?

  从用户角度来说,ChatGPT为什么会爆炸?是因为它的界面非常简单,文本输入上手简单情感电台文本治愈系,不需要下载、学习。之前人工智能都在后台,比如智能仓库、各种企业效率优化和算法推介,专业人士才会用,消费者是没有直观感受的。

  但ChatGPT让消费者第一次直观感受到了人工智能的魅力。比如一个男生想写一段抚慰的话给安全感不足的女朋友,ChatGPT可能真的能帮到他。我把它叫做人工智能强大的能力和互联网用户无限创造力的结合。这也是人工智能第一次真正走向了「社会化」。

  语言模型的界面设计直接影响了ChatGPT向非人工智能专家的扩散。就好像你第一次拿到iPhone的时候,手指触碰屏幕就能完成任务指令,非常简单。浏览器也一样,输入网址、回车,就能一键抵达。

  3月份的时候,OpenAI说它要开放插件,允许第三方接入它的生态。这就意味着ChatGPT可以读取各种数据源(之前是自有数据库训练),可以开放给任何第三方开发者。如果我是Tripadvisor,就可以在它的应用里给用户订票、回答问题;数据分析、教育、旅游服务、软件集成服务商等也会逐步出现。

  可以想象,未来可能会有各种各样的个人助手,来解决每一个人的各种问题,这样的界面+plugin的广泛应用可能会让信息获取、事务处理更高效。

  如果OpenAI想做底层,可能不会把自己变成一个超级APP,而只提供基础设施。它肯定是有野心的,因为它现在的插件架构就类似于苹果商店,暂且称它为「插件商店」。

  苹果会收苹果税*,很难说OpenAI会不会收「插件税」。如果它想尽快商业化,也可能会选择走苹果的老路,但也要承担被诟病垄断的风险,就像现在的苹果一样。

  如果用户的需求场景转移到GPT这种界面上,开发者都想在插件商店占领一席之地。其实百度也想做这个事情,有行业大模型,最后肯定会发展到企业,让B端客户、C端消费者都接入到插件经济当中。

  要实现从「APP经济」到「插件经济」,都有赖于OpenAI运作良好,和开发者处好关系,解决好如何收费、安全问题等问题。开发者积极踊跃,平台才会繁荣。最近三星禁止使用ChatGPT,也是担心数据泄露问题。微软说要做私有ChatGPT,通过微软云进行云存储是绝对安全的,但需要支付高价。

  如果放到互联网上,会带来更多的麻烦。以前使用专有数据库训练,还能控制,但现在都是实时的,Bing想做以人工智能为动力的搜索引擎,能抓取实时数据,信息价值更高,但风险也会随之更大,传递错误信息、对人脑进行大规模操控,都是可能的。大多数用户不知道也不具备识别能力。

  我们现在讨论最多的是AIGC,本质上是文本生成器,影响的是内容产业。我现在可以基于Stable Diffusion或者Midjourney做图情感类公众号名称,随着技术的发展和对它们的熟悉,未来还可以做音频、视频,甚至整部游戏、电影等。

  对于这一情况,早期大家都是欢呼的,就好像最初人人都可以做自媒体,UGC具有化的潜力。对应到现在,每个人都可以成为艺术家。只要我精妙描写想要什么画,在工具里输出提示词,就能完成绘图。尽管现在水平还有待发展,但未来可能会生成更惊艳的效果,画出插画师也画不出的画。在这一轮的内容生产中,生产者又获得了平等的权力。

  我承认平权是好事,一个人有能力发布,肯定是了不起的力量。但我预测最终内容生产不可能是长尾。你可以生产内容适合情感夜话的文章,但它未必能产生影响力。我认为UGC已经失败了情感电台文本治愈系,虽然当年我也是它的鼓吹者。信息生产的权力依然是个二八定律。

  AIGC最终的路线也是一样的情感类的文章怎么写情感类公众号名称。我们还在早期欢呼阶段,但往后,有人的提示能力就是比另一部分人强。内容生产会回到老路上,从发散重新收敛。

  1、作弊。之前论文有查重机制,现在老师需要知道怎么识别作业是否是ChatGPT写的。GPT是生成模式,意味着互联网上没有历史数据信息,查重很难查到。为了应对这一情况,普林斯顿的学生开发了一个GPTZero的智能监测工具,用技术对抗技术。有的高校也会直接禁用GPT。

  GPTZero网页界面。它是一种预测文档是否由大型语言模型编写的分类模型,提供句子、段落和文档级别的预测。©

  2、考试本身。我们看到GPT-4能顺利通过法律、医学考试等。考试原本是考核录取学生的标准,如果GPT都能考过,会对考试形成压力,它关系到教育的底层逻辑。

  这两点对教育冲击很大,会影响到底如何判定一个学生是好是坏。对于这样的挑战,简单粗暴的操作方式就是禁,但禁肯定不奏效,越禁越吃香,长期也禁不了,毕竟对学生的力太大了。

  不如倒过来想它可能带来什么好处?重新想想以往教育模式应该如何改进?GPT给了我们一个警醒:原来的教育模式本来就存在问题。

  比如作业到底对学生成长有没有用?中学生作业太多,需要家长要帮他完成,这本身就很扯。作业量和学生成绩的好坏真的有因果关系吗?学习好的孩子不见得是因为作业做得好,现在之所以不停刷题,是考核方式决定的,考核的逻辑与刷题的逻辑一致。

  GPT-4 和 GPT-3.5 在美国一系列考试中的成绩。OpenAI 透露 GPT-4 在模拟律师考试中得分前 10%,在 LSAT 考试中排名第 88 个百分点。这些分数将使 AI 有资格进入美国排名前 20 的法学院,与其前身 ChatGPT 3.5 相比有了显着进步。© OpenAI

  教育哲学家杜威*之前也探讨过学生在学校里到底学习什么。作业的目的是从显性课程中学习,但学生也从所参与的活动中学习,这叫做附带学习。杜威认为,附带学习比学校中有关知识的学习更重要情感类的文章怎么写,因为它可以培养学生面对未来生活最根本的态度。

  永远有会考试的学生,但高分的学生未必是好的学习者,或者反而缺乏自主学习的能力。自主学习能力通过作业衡量不了,所以我们需要倒过来思考作业的有效性有多高、以及是否应该在课堂中完全不以作业为导向,而转为以讨论、协作、做项目为导向,来进行考核。

  在这种情况下,GPT不仅可以用,甚至还能变成教学工具。比如老师让学生用GPT写作业,再分析它哪个地方写的不好,评价之后再自己写。这时GPT就可以成为锻炼学生辨识信息能力的教学工具。通过这个过程,还可以考查你有没有媒介素养,进而提升「人工智能素养」,分辨人工智能给出信息的真伪,以及判断它的意图。

  *约翰·杜威(英语:John Dewey,1859年10月20日—1952年6月1日)是美国著名哲学家适合情感夜话的文章、教育家、心理学家,被认为是美国实用主义哲学的重要代表人物,也被视为是现代教育学的创始人之一、机能主义心理学派的创始人之一。

  我认为应该把媒介素养变为大学通识课。如果没有识别真假信息的能力,对现在的孩子来说,会是一生的致命伤。无论什么学科,媒介素养可以转化成信息工具,还可以提升学生的提问能力情感类的文章怎么写。通过评价ChatGPT的回答来考核你对问题的理解与判断,对培养批判性思维也有极大帮助。

  人工智能对于受教育者非常大的影响是惰性和思维依赖情感电台文本治愈系。在人工智能时代,批判性思维的重要性只多不少。对教育者来讲,假专家和真专家之间的鸿沟也会变得非常明显。如果对某个学科没有很深的理解,可以蒙过一般用户,但蒙不了真专家。

  GPT可以帮助减轻教师琐碎工作的负担,腾出更多时间提升自身能力,帮助学生提高思维素质。有了GPT,老师就不能偷懒了,不能总是留给学生们信息总结和梳理的作业,而要考虑作业对他们思维的训练和挑战性。老师需要有更强的教学能力,不仅要懂得引导学生学习,也要组织大家进行有启发性的讨论。理想状态是师生双向互利,共同进步;或者根据学生的个性化专业需求,老师提供一对一的定制化教育方案。

  国外的教育工作者Torrey Trust和Andrew Herft创建的一些指南,用于在教育环境中使用 ChatGPT,包括教师的用途,例如制定课程计划和评估以及学生如何使用它。©

  Q:您之前谈到了流行和消耗的关系,并表示「没有电,这些东西(ChatGPT、元宇宙、区块链、数字货币)都玩不转」,也提出了「追逐流行时,可能需要把“能源有限”时时放在心里」。我理解这里的「能源」一方面是环境资源,另一方面也是人自身的注意力资源。作为「流行」这一社会文化的观察和研究者,您觉得我们应该以怎样的态度和行动面对新技术,才不至于「消耗」?

  这里的消耗首先是能源和人力资本的耗费。除了能源,人工智能背后有很多对人力资源的不当使用。其次是注意力资源的耗费,这和媒介素养有关系。你想不受技术的影响是不可能的,但要有很强的意识,学会如何更好地使用技术,有意识、有能力地培养好的媒介接触习惯。

  第一要优化信息来源,建造一个多样化、高频率的信息来源是基本能力。第二是在社交网络中筛选给你带来好的信息资源的人。人的选择决定了信息的质量,要建立自己的高质量人脉网络适合情感夜话的文章。第三是提高媒介素养。清醒分辨信息的好坏,不被坏的信息误导,不会随大流或者从众。

  Q:目前国内外都有不少做对话式人工智能平台的公司出现,比较有代表性的是海外的Chracter.AI①和国内的Minimax②孵化的Glow,根据公开信息,这两家公司的估值都已经达到了10亿美金。这里面可能基于一种假设,就是超级助理会成为未来,而谁能率先通过人机交互的方式低成本获取活跃用户,并且和他们保持一定时间的深度交互,就有机会在上面构建更具吸引力的生态。您相信这种假设吗?相信或者不相信的理由可能是什么?

  我觉得ChatGPT变成智能助理的潜力挺大的,但是不是针对个体用户提供服务还不知道。尼葛洛庞帝之前也说过,如果要想让一个老祖母轻松地使用电脑,一定要有个「智能代理人」③替她来完成操作。它需要很多数据来熟悉她,甚至预测需求。

  如果我是一个写作者,AI通过获取我的日常写作文稿情感类的文章怎么写情感电台文本治愈系、阅读偏好等数据,帮我高效地完成书籍初稿,是有前景的。

  按照创新扩散理论,如果AI能满足早期采用者的需求,它就有很大价值和商机,但同时也存在巨大的发展阻碍,也就是隐私问题。我如此依赖它,离开它我会不会啥也不会干了;如果它背叛我,会带来很多麻烦,我该怎么信任它?

  隐私问题是数字社会当中最大的问题,它横亘在所有新技术发展和商业模式之上。Google的语言模型除了抓搜索结果之外还抓Gmail邮箱,在用户不知情的情况下就抓取走了。OpenAI 短暂在意大利被封锁,因为意大利数据保护当局认为它违背了GDPR。大数据的进化和隐私保护是相背离的。中国的隐私保护很差,很难预测这类服务在中国的发展情况。

  ①Character.AI 由 AI 和大型语言模型先驱 Noam Shazeer 和 Daniel De Freitas 于 2021 年创立,是一个对话式人工智能平台,使用大型语言模型、深度学习算法,可以识别、总结、翻译、预测和生成文本等内容,为个人提供个性化的人工智能体验。该平台允许任何人创建角色并与之互动,允许用户构建自己的个性化用例并与他人分享。

  ②MiniMax成立由前商汤科技副总裁、通用智能技术负责人闫俊杰于2021年创立,致力于成为通用人工智能时代基础设施建设者和内容应用创造者。作为国内拥有文本、语音、视觉多种模态融合的通用大模型引擎能力,并打通产品全链路的技术公司,MiniMax团队致力于用领先的通用人工智能引擎技术,通过多场景和度应用及交互,以用户反馈量级的提升和多模态AI技术一体化的应用实践,推动通用人工智能技术新范式变革。

  ③即智慧型代理。在人工智能领域,智慧型代理指一个可以观察周遭环境并作出行动以达致目标的自主实体。它通常是指(但不一定是)一个软件程式。「智慧型代理」是目前人工智能研究的一个核心概念,统御和联络着各个子领域的研究。

  Q:您相信人真的会对人工智能产生情感依附吗?像电影Her一样。对于AI Native一代,您觉得他/她们可能会变成什么样子?对于AI的原生性的接受会怎样重构他们的真人社交关系?

  你被AI打动是因为它像一个人,人有把周围事物拟人化的倾向。Bing开放后,给使用者带来一种机器人有情感、有记忆、企图操纵人类的感觉,这都是拟人化带来的情感依附。ta是否会达到Her或者机械姬的水平?人爱上了人工智能,最后会产生怎样的结果?未来,我们一定会进入一个人机混杂的社交场景,但机器人是没有道德和情感的。

  拟人化的第一个特点是外表,第二是对彼此的精神状态有要求适合情感夜话的文章。拟人化能让机器与人产生共鸣,但有很大的危险。机器人拟人化之后,ta就相当于拥有了某种权力,这个权力会和人的权力发生冲突,不能和谐共处就会打起来,结果一定会有一方灭亡。

  上面讲的任何一种情况都是拟人化的极致结果,对于「毁灭派」来说,机器人可能比人更有权力,会带来毁灭。另一派不相信机器人会统治人类,认为它们会有伦理,不会杀害人,然而这么认为还是因为假设了机器人拟人化的特征。拟人化是很危险的。

  一个全能超级助理的出现意味着什么?它全知全能且自足,不假于任何外物,这不就是我们所说的上帝属性?这是很可怕的。因为人类本身就不是全知全能的。

  如果全能超级助理真的出现,我希望ta是部分有知、部分有能,且不完整的。因为人类正是认识到了自己能力的局限,才会愿意融入社会,才有认知的谦卑,而不是傲慢。愿我们和超级助理都能时刻自省,时刻谦卑。

  改变世界常常被视为疯狂冒险家的宣言,也被当做创业者的理想主义。然而,这会不会也是一种人类认知上的傲慢?虽然大家仍在吐槽ChatGPT总是一副一本正经地胡说八道的样子,但显然我们如今对它的未知已经远远超过了已知。我们不知道它的学习能力是否有上限,不知道它会不会产生意识,也不知道有朝一日它能否像人脑一样思考。唯一知道的是,这场AI才刚刚开始。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186

评论留言

发表评论