翻电Special DeepSeek大规模应用会如何改变公共舆论,“幻觉长城”不是最令人担忧的 VOL.153
Deepsick,deepsick。
这个话题最近非常火啊,但其实我已经做了两期节目了,叫ytb。
这两期节目呢,我基本是说啊,deepsick的模型其实是有挺大问题的,这个模型确实用了很多方法来优化,让不管它训练中使用的算力还是生成使用的算力都可以非常显著的下降。
我这两个节目用了很多的测试在说啊,其实这个优化本身是有代价的,而且代价绝对不是很多人轻轻松松用一句说。
这个模型便宜的特别多,比Oone差一点点。
这样的说法可以抹去的模型本身的性能呢,有很大的问题。
所以如果简单总结我那两期节目啊,基本就在说,呃,deepsick,尤其是deepsickRone的很多输出结果如果发到网上,其实是很有娱乐性的,有时候看上去很荒唐,有时候看上去很唬人,但是如果要稳定当工作工具来使用啊。
我们不说数学和编程,如果有人当做这个自然语言的稳定的工具来使用,其实是有很大的问题的。
OK,这就是那期的节目啊,之前的节目,但今天的diplixRone,它毫无疑问已经火起来了,而且火了很多人在用。
那今天这期我们就来讲讲,如果真的大规模拓宽使用,看上去是不可避免的,我们的整个公共舆论环境可能会遭遇什么样冲击这么一个问题。
大家好啊,欢迎收听新一期的翻电special节目我是李后晨,今天我们不可以免俗,来聊一聊deepsick,尤其是聊聊deepsickRone春节期间啊。
deepsick大火。
我听到很多听众啊,观众告诉我啊,火到家里面的长辈啊,七大姑八大姨都在讨论,都在下载使用,但我不知道这个东西有多广啊,所以在评论区希望听到你们来反馈一下是不是家里的长辈七大姑八大姨都在去使用和下载这个东西。
如果真的火到这个火法,那应该很快就要在各个领域用起来。
不管你看到的这个公众号文章呀,短视频啊,长视频啊,很多人应该就会用起来了,一旦用起来,在各个领域铺开,不管Rone的性能好不好厉不厉害,至少春节这一波大的这个内宣啊,完成了中国到基层的AI普及呢。
今天我们就来讨论讨论有什么影响。
关于影响啊这两篇有篇文章是传的最火的就是所谓的幻觉长城。
那么幻觉长城这个事情存不存在呢?
那一定是存在的啊,对吧?
什么是幻觉呢?
大概就是说这个二万会编造一些内容,会编造一些数据,会编造一些不存在的事实,这个叫hallucination,那为什么会编造这些东西呢?
当然不是说这个模型本身具有编造事实的能力。
呃,其实早在很早之前刚刚出chatgpt的时候我就做过chatgpt这个模型本身它的这个模型构成这个transformer算法的节目啊,当时我们就给大家讲清楚了。
其实transformer算法就是tokenpredictiontokenprediction呢就是接下茬,就是在一段话上,他去猜下一个字最大概率是什么。
所以说对于一个largelanguagemodel来讲啊,只要言之成理这个理还不是说成道理的理啊。
只要这句话是句通顺的话,往下说就没有问题。
对他来讲,分辨真假,如果不经过后期的其他训练,是根本没有办法去分辨真假的。
反正他就是这个话,只要说的顺我还继续说就行了,所以说一定会有很多的幻觉。
当然幻觉在各个模型之中啊,需要去控制啊,那个所谓的幻觉我们怎么去度量呢?
有一个东西专门来度量幻觉的就是Victoria叫做VictoriaHHEMlittleboard。
HHEM就是huseshelucinationevaluationmodel是一个专门把这个模型输出结果和很多权威的事实在空间向量上进行对比的一个东西。
anyway这个具体细节就不说了,反正有一个这样的专门对比各个模型的helucination率的一个好,那个dipcRone的幻觉有多强呢?
我给大家做一个横向的对比啊,他们最近刚刚发布了新的leaderboards。
第一名啊,就是幻觉最少的模型是谁呢?
是GoogleGemini2.0的flash第一版啊。
这个的的hallucinationrate只有0.7%是比较少的,那么第三名是谁呢?
第三名就是这个openI新发的Othreeminihigh,这个reasoning的模型,它也是一个reasoning模型,这个reasoning模型的hallucinationrate是0.8%好,这是第一名啊,0.7啊,第三名0.8。
啊,我这个这个榜单很长啊。
我说几个比较有名的第八名,第八名就是我们平时中的最多的G就是openAI的gptfourOgptfourO的helicinationalrate是1.5%,然后往下就是第17名,很快就到了17名了。
17名是谁呢?
是openAI的Oone这个reasoning的模型,它的helicinationalrate有2.4%,你看这里只能2.4啊,那还有谁也是2.4呢?
并列17名。
就是deepseek的V2.5V2.5相当于deepseek的这个GBfour等等这样的一个模型,它的2.5版模型的helicinerRay也是2.4%好。
第33名是谁呢?
往下就是第33名了,第33名就是deepseek的vthree,vthree就是这个Rone的基础模型。
Rone是在vthree的基础之上做这个cot训练构成的deepvthree,你就把它想象成是GBfour吧,就它的这个。
Hallucinerrate3.9%啊,也没有很夸张对吧?
第一名是0.7到第33名是3.9%好最后deepsickRone是多少啊,它是这第几名我就不数了。
我告诉大家hallucinerrate,它的hallucinerrate是14.3%,它这是个特别特别特别特别特别高的一个数啊,
14.3就已经,嗯,说实话,如果14.3我有点高到基本没办法,没有办法用了对吧?
就大家自己用也发现啊。
这个是经常经常出现的,而且是几乎成片出现的。
就一旦Rone开始进行这个hallucination的时候,他编造数据和事实就是一大堆的。
像我给大家说啊我在生成的一条里面,我我我问了他一个问题啊,他就开始每一句都用一个呃证据来回答我,但几乎每一句的证据都是编造的事实。
他讲斯坦福大学实验表明,当个体每天接触超过二十条论证内容的时候。
逻辑判断准确率下降47%,看是不是特唬人啊?
没有这事儿。
哈佛大学语言分析表明,gpt类的内容在逻辑连接词,使用频率是人类的3.2倍,但实质性论证密度仅为人工写作的31%,没有这回事儿啊。
牛津大学观测到,在lushlanguagemodel内容主导讨论区平均用户阅读时长从142秒降至89秒,深度回复率下降71%。
没有这个东西啊。
麻省理工学院提出批判性AI素养框架。
强调需要培养Proprovenancetrackingargumentdecisionintendreasoning三大新能力完全没有这个东西啊。
之后讲韩国推出数字内容DNA数据库通过区块链记录核心内容的演化轨迹,没有这个东西啊。
以色列开发论证质量评估企业的aqpv2.0为内容标志逻辑密度评分,没有这个东西就是以上所有条,这还不,这还不是我列举的,就是它一旦开始进行这个胡编乱造,几乎每一条都是胡编乱造。
但每一条编的都像那么回事儿,对吧?
所以实际上这个deepCRone的helucination。
如果你是一个有基本的事实辨别能力的人,其实你很快就会发现啊,呃,其实它的出现频率是非常非常高的,尤其是你需要它论这个东西的时候,它出现频率非常高,这是我说的,如果你要用它来干活儿,如果你要用这个AI模型辅助你干一些呃正经的工作啊,由于第一,它现在这个服务器实在不稳定。
第二,这个hallucinary太高,导致它没有办法用。
当然,这也佐证了我之前的判断啊,这个就是这个模型优化中导致的代价。
那为什么这会有这么高的hallucination呢?
就是它的用有限算力啊,所以它进行误差的近似运算,经常需要进行近似运算,这个近似运算就很有可能会产生这样的hallucination,包括它这个Rone这个reinforcementlearning的奖励机制你大我不知道你知不知道它是一个用。
这个数学啊,编程啊,还有一些事就是一些基本的事实问题,这种可以形式化验证东西来构成的,所以它跟其他的事实对齐的训练太少了,导致它容易出这个问题啊,对吧?
我给大家举个例子啊,就是为为什么它会有hallucination,我给大家举个简单的例子来理解这事儿吧,比如说啊,我们现在要要求人靠记忆画一个大楼,就我们现在拉到你在一个大楼前面你来看。
看完之后你来画好,我们有两个情况,第一个呢,我们让你仔细观察这个大楼,观察二十分钟,然后回去画两小时啊,这是gpt的模型啊。
那如果Rone呢,它做很多优化嘛,我们让你看这个大楼看五分钟回去画半小时,你看一个是看二十分钟画两小时,一个是看五分钟回去画半小时对吧?
那后者很明显就会出现一些疏漏,那么我们要求画的快,看的时间短。
那很有可能最后画的内容是什么呢?
楼的外形轮廓形状是对的,颜色是对的,但是,哎,这个窗子有多高啊?
窗子是什么样子啊,细节全是编的。
那现在这个deepRone大概就是这样东西啊,就是,呃,它生成了一段文本,这个文本你打眼一看,哎呀,文本框架。
形式应该都是对的,但是细节都是它编的。
所以幻觉当然是个真正的问题。
而且deepRone的幻觉就是非常非常高。
它的这个HEM的leaderbros上有14.3%,排名非常靠后啊,所以幻觉内容是真的butbut什么呢?
我们之前啊讲到这个largelanguagemodel的使用,我们有两个担忧是最大的担忧,第一个呢就是这个幻觉,我们说啊,这个很可能会导致我们这个公共舆论啊,虚假信息泛滥,而且这个虚假信息啊,我们大家缺乏分辨力。
第二个呢就是说啊,你看我们太经常的使用AI啊。
会导致我们个人的思考的惰性增加。
个人不愿意思考这两个是不是真的绝对是。
但你知道我听到这俩我的感觉是什么吗?
我的感觉是这俩还需要AI,难道现在不是吗?
难道没有AI的时候我们这个公共舆论环境没有虚假信息泛滥,而且绝大多数人并没有虚假信息分辨能力吗?
这个这个是个问题吧,这这是个新问题,这当然是个问题啊,这是个新问题吗?
第二。
我们个人的思考惰性很强,不愿意自己主动思考,这还需要AI,难道过去不是这样吗?
对吧?
所以我会认为啊,这两个问题当然都是问题,但这两个问题还真不是AI时代的新问题,这个我们过去早就是这样了,这个不需要AI啊,我们这个公共舆论也是也是这样的。
所以说我就想思考思考啊,就是如果真的这个七大姑八大姨都开始用这个lastlanguagemodel的话,很可能我们的环境。
会导致什么问题的出现啊?
所以我仔细想一想啊,你知道吗?
这个问题,当然你可以想的时候,你就可以让这个AI来帮助你思考啊,可能会出什么问题啊,但是AI出的结果啊,不管是我用deepsick也出了我让这个chatgptOthreeminihi也出了,我让这个Geminitwopointzeroflashthinkingexperimental也出了,但其实出的都挺一般的,这俩出的都挺。
一般的。
后来啊,就发现现在这种玩意还得自己想啊。
想里面一些细节你可以让AI帮你填充啊。
但这种框架性东西还是得自己想好,我想出了以下四个来跟大家沟通沟通,而且我觉得这四个呢,应该很快大家就能感觉到了,这个应该是非常非常快就会充斥在我们生活中的。
第一个呢,我会认为啊,这个说理的信息会增加,你看啊,我们过去有一个说法叫做信息爆炸,信息爆炸就是说有了互联网之后。
我们我。
们,每个人每天能看到的信息量是。
巨大的,对吧?
我们每天看到各种各样的信息。
好,这是信息爆炸,我认为呢,现在会形成一个说理爆炸。
什么叫说理爆炸呢?
就是你看我们过去信息非常多,但是啊,把它信息输出为严格的论点形式的,其实还没有那么多,就是啊,要生成论点想论点,这是挺费脑子的。
很多人内容啊,其实论点比较差,他基本上就是。
情绪性输出啊。
或者就是一个近似于论点,实际上不是论点的方式输出了。
但是有了largelanguagemodel之后啊,生成论点的门槛变得尤其的低啊。
不管论点是不是真的无所谓啊。
但是本来这个largelanguagemodel,它的输出形式就是论点形式对吧?
你问他任何问题,他几乎都是议论文啊,而且有bulletpointnumberpoint方式给你输出论点,条分缕析条条框框。
一步一步来,那未来呢?
生成这种格式的内容会变得门槛啊,会变得尤其低。
所以未来我们看到大量内容,不管是关于中医药的,关于中国经济的,关于任何问题的,你几乎都能看到里面的人,不管是一篇文章还是一个视频,里面的人会条条框框和你说分为三个部分,第一第二第三第一里面有三个小点,1.11.21.3就未来。
生成大量,这个想出五六点来,每一点里面有四五个小点。
这事在过去其实挺耗脑子的,如果不是很愿意思考的人是应该不不会突然想出二十个平行的小点。
但现在有largelanguagemodel之后,这个就门槛真的非常非常低了,好就是能够变成大量的说理,所以说理就会爆炸。
那么这种说理爆炸呢,会有问题,为什么说理爆炸会有问题呢?
因为从现在largelanguagemodel的角度上来讲,我们且不说幻觉的问题之外啊。
实际上大量的这些模型生成的说理内容,它水平是不高的,很多时候呢是非常空洞的说理,或者它是长得像说理,但实际上是那种假大空文章,这个是非常非常多的。
那么在这个情况之下,一旦啊说理爆炸,那么每天轰击你的内容都是这个道理那个道理。
那请问作为一个普通的网民来讲,他能够分辨哪个是真说理,哪个是假说理,哪个说理说的好,哪个说理说的不好吗?
啊,信息爆炸之下,我们连信息真伪都分辨不了,更遑论分辨说理的质量了。
好在这个情况下,说理会变成个什么东西呢?
说理过去的标准和要求就是逻辑清不清晰,论证完不完整。
那么现在说理会变成什么呢?
在说理的爆炸情况之下,说理会变成一个表演,对吧?
说理会催生出每天各种新的不同的生产形式。
那么过去在有一个平台之上,其实已经有说理表演了,就是知乎对吧?
知乎本身是一个问题回答,所以大量问题都需要比较有条理。
当然如果你用知乎的用的多,你会发现很多知乎问题就是一段话,也没有任何bulletpoint,那么过去在知乎的时代啊,就会有一种东西叫知乎体,对吧?
有一定篇幅的长度,有分1234,里面有这个bulletpoint,有图表等等等等,这个叫知乎体。
那这种知乎体,有时候你细看其实说的狗屁也不是。
但是呢,形式上特别唬人,这个呢就叫做表演性说理。
那么未来啊,这种表演性说理会成为一个特别广泛的东西,不止在知乎上任何领域都会出现表演性说理,那表演性说理有各种各样的表演形式。
那么现在知乎上呢,我觉得还没有探索表演性说理,所谓的知乎体或者说理体的终极状态,那未来呢,应该网上会有各种各样新的说理体出现,就比如说。
我现在打就随便这么一想啊,我就能想出好几种说理表演形式。
第一种呢就是让AI帮助你生成具有强烈情感导向的论据。
比如说你需要论据,这个论据真假根本不重要,你自己也懒得编,你也编不出,你让AI帮你编,你给AI一个要求,比如说我要编这个美国在过去三年有哪些经济指标大幅下滑对吧?
你就出这种啊,这个AI运动非常非常强啊,就是不甭管真的假的给你出一大堆,比如你要出这个美国。
这个失业情况在未来三年在哪些领域之上有巨大的恶化对吧?
他让你出啊,你出不对你问一次问两次出特别多,你就说不了,最可怕的你甚至可以说这个失业的情况特别严重,导致具体的案例之中人们的生活破灭的例子啊,给你出一堆对吧?
如果你能够AI帮你出这些具有强烈情感导向的论据,那未来这种表演性的说理应该会比较火啊。
第2种就是术语堆砌和权威性的,这个不用说了,现在知乎级也是这样,就是术语堆砌啊。
有权威的,比如说你让AI给你找论据,都必须是长春藤学校的论据。
你看他这个编刚才不是编的都是长春藤藤校的论据吗?
看着特唬人对吧?
一会儿哈佛,一会儿牛津,但牛津不是藤校啊,一会儿MIT等等等等等。
但第3种啊,就是网上大家也知道有一种说理形式非常火,就是类型分析型的框架清晰分类,像mbti型的等等等,这种也是说服力很强的说理。
所以未来啊,对于内容创作者来讲,内容创作者比较。
关键的一个技能啊,包括很多人可能会磨练出这种技能,就是什么样的说理表演会演技特别好,表演的效果很好,只要这个形式他掌握了说理内容全靠AI啊。
所以短时间内各种各样的说理表演,艺术家应该会出现各种天花乱坠的说理表演,那么这种说理表演呢,有的会很有影响力,但是究其根本啊,我会导致它会构成一种说理疲劳。
这种说理疲劳就是对一个普通网民来讲啊,每天看到内容都是123412341234,各种例子,各种内容,各种例子各种内容,而且里面绝大部分真真假假,真假难辨了。
长期下来,对于普通人来讲,这是一个说理的疲劳,说理疲劳之后呢,就会对网络论理,导致一种怀疑主义,对吧?
这种怀疑主。
义出现之后,对于这个公共舆论,当然打击是比较明显的了啊,就是未来。
呃,如果你想辩驳一个东西你不想去。
呃,深度的辩驳他,你想用最简单的方法辩驳他,你就说啊,他这个肯定是AI生成的,就就这是个过去了哈,对,这成为了一个另外一种很好扣的一个帽子啊。
而且,而且这个帽子呢,在说理疲劳的情况之下,其实也是很容易扣的上去的好,所以这是我觉得第一点啊,就是我们将会迎来一个说理爆炸的时代,而说理爆炸呢,会让整个网络说理变成一种表演性质的活动,会催生出说理表演艺术家啊,
这个是。
可能短时间就会看到这个东西好。
第二个我觉得这个largelanguagemodel啊,在我们生活中使用啊,会导致第二个很严重的问题啊,就是会导致这个。
私人化的语言啊,地方化的语言。
大幅度的减少,因。
为你可以想象啊。
这个largelanguagemodel其实本身是一种统一的模板,这个这个模板还不光是分这个地域啊,都不分地域,它整个模型大模型就是一个。
其实我们公共语料之中啊,其实有大量多样化的语调啊,包括特别私人化的特别个人化的处于边缘位置的各种视角,在过去都会出现,未来它不是会不出现未来,当然也会有,但是我认为在公共环境之中,因为largelanguagemodel产生的内容效率很高嘛,所以说效率这个梳理爆炸之后,大量的内容涌入,那这种地方化的私人化的视角和语言就会被稀释,它不会消失。
但是因为largelanguagemodel生成内容太多了,这些东西会被稀释稀释了。
之后是一个特别特别严重的游戏,我们把把我我我我我举个例子,让大家来理解这个稀释的呃,问题是什么?
就是从这个chatgpt刚有的时候啊,有人就形容chatgpt是个什么东西呢?
我觉得形容非常好,它就是人类语言的压缩与解压缩,对吧?
就largelanguagemodel把人类的这个所有语言啊语料,然后打包。
压缩为一个函数分布,这个函数分布未来再往外蹦词儿,对吧?
它就是把人类的语料压缩起来,压缩之后每次你用prompt让它去给你输字儿,就是一个解压缩的过程,对吧?
那么它做一个压缩或解压缩的过程呢?
这个压缩解压缩的算法就会有丢失,就会有失真啊。
那么从chatgpt到deepsick,那我们可以说deepsick是由于它的算法优化,包括它的训练方式啊,它是一种丢失率特别高的压缩和解压方式,它的精度非常低就deepsickRone。
本身是一种压缩的,精度非常低,丢失率就是这个分辨率损失率特别特别高的一种。
压缩和解压缩的方式。
好,那么比如说啊,我们把一张照片,然后照片原来分辨率很高啊,压缩,然后再反向生成,生成出来就是马赛克了。
生成出马赛克之后丢掉什么呢?
丢掉就是细节,那什么是细节呢?
丢掉的就是我们的语言语料之中个人化私人化多样化。
边缘位置的那些内容,比如说largelanguagemodel是无法生成这些内容的,这个就是丢失啊。
所以说未来我们平时大量人所产生的语料被这个largelanguagemodel的这种压缩,在解压缩之后语料稀释之后,也就是说我们整个社会我们用解压缩解压缩,我们用分辨率来讲啊,我们整个社会语言的分辨率在下降,就整个我们社会语料中低分辨率的语料会大大的增加。
而高分辨率的语料在下降,这个是有非常非常重大的影响的。
第一个影响,我觉得这就是深度的丢失啊,不管是我们之前讲威根斯坦还是讲尼采,其实都表达过一个观点,所谓深度其实是一种表层的广度,对吧?
就是我们所想象那个在逻辑意义之上一层层往下的深度本身是不存在的。
我们平时认为的深度其实是一种表层的广泛,一种表层的广度。
这种表层的广度只有在高分辨率高精度之下才能够看得明白。
而largelanguagemodel对整个语料的稀释作用,让这个表层的广泛变得非常困难,甚至不可能语料中出现的高精微的偶发性的随机性的内容,因为稀释的原因,我们遭遇的可能性越来越小啊。
在越来越小的情况之下,福柯有一个观念特别有意思啊,它不是叫做规范化的暴政嘛,它就讲这个语言生成之中,这个就是知识生产中有一种规范化规范化,本身是个暴政。
那过去规范化包括对于社会边缘的压抑,对抑制性东西的消灭,需要靠权力来完成了。
现在直接靠机器完成,就是就靠largelanguagemodel就可以完成。
所以规范规范化的暴政规范化这东西真的像那个绕口令啊,规范化的暴政就可以在这个用机器的方式来完成。
所以这个东西呢,就是地方化私人化语言。
largelanguagemodel是生成不出来的,因此它生成大量,这些东西就被稀释。
稀释完之后呢?
其实不只是深度的丢失啊。
那我要说另外一个角度,也是文化的丢失。
为什么是文化的丢失呢?
我举一个例子你就知道了,其实中国有很多短视频的生产者,他作为一个个人做一个素人,刚刚出来创作的时候,都是从自己生活经验出发,就是演自己演自己的方言,演自己生活中的一些比较有意思的点。
从他自己生活出发,演的时候呢,内容都。
还不错,很很可爱,也很有意思。
但是这种创作的一旦量大之后啊,他自己的流量大了,他自己可能过去的生活挖掘的差不多了,你会发现他们开始模板化的创作啊,他们开始不管是创作什么,搞笑视频啊,创作成别的视频啊,他们开始进入一个模板化创作的过程,那进入模板模板化的创作,你就会发现他自己过去的所有特点优点在非常快速的消退,就变得像是一个像这个机器人生成的一样,所以你会发现。
所谓的文化能够有文化承载力的,在这样一个短视频生产者的前后过程之中什么的环节,具有这种文化承载力呢,就是他最初创作从自己的生活经验,从实际经验,从他有细节感知的东西出渣的这种创作。
也就是说,未来如果创作大量依赖AIAI的创作,会更像这个短视频生产者的初期部分,还是向后期部分一定会向后期部分,而后期部分这个内容啊是没有任何文化承载能力的,所以本身对社会来讲也是文化的丢失。
啊,因此这个深度和文化的丢失啊,是第一步。
再往下一步是什么样的,我们可以想象啊,对我们社会来讲,我们公共舆论,我们每个人来讲,我们值得反复咀嚼,再次加工回应的内容是私人化的,边缘的视角还是被总结出来的社会总体视角,比如说这个社会出了一篇关于这个外卖骑手的报道,他非常大而化之的讲。
就外卖骑手被剥削,外卖骑手惨啊,这外卖骑手这样那样这样那样你看完就看完了yousowhat对吧就你不知道吗?
对吧?
你只有拿出单一一个外卖骑手的故事,她一个女骑手,一个女骑手,在具体生活之中,她遭遇什么困境?
她在一个男性人男性很多的微信群里面是怎么样?
她平时送送餐的时候,晚上具体遭遇什么样的安全的担忧等等等等,就只有这些特殊的真正深含个人经验的内容才值得再次的加工,才值得再次的回应。
而社会舆论恰恰是要在这些具体的例子之上才能够产生出来,对吧?
像小花梅的事件你必须知道哦,完全就这个傈僳族的这个怒江妇女婚,迁就这些事情出来之后,有这样的边缘视角之后,这个社会舆论的对话才进行的下去。
但如果社会舆论之中不存在带有人经验的带有默会知识的带有地方性的带有私人化的个人化的语料,而都是种大而化之的语料的话,其实这种大而化之语料没有什么可以。
回应的就没有什么可以讨论的内容嘛,对吧?
那么公共舆论讨论什么呢?
对吧?
公共舆论讨论会停止啊。
所以第二点,这个就是地方化私人化的语言大幅减少,其实呃,也会产生一个比较大的问题。
好,我来说第三点第三点比较有意思,第三点其实跟中文还高度相关,就是首先我们说中文是一个高语境的语言,对吧?
中文中文啊,日文都是高语境的语言。
而这个英文本身是一个比较低语境的语言,那么高语境的语言啊,在中文中几乎无处不在,在书写体系中有很多作用。
那我们想想就largelanguagemodel能不能把握住高语境其实也比较难,就largelanguagemodel,它本身是一个大模型嘛,这个大模型不具备感知能力,因此它更不具备语境的感知能力。
所以说,但是如果现在我问你啊,这个高语境在书写体系里面怎么起作用的呢?
这可能还挺难想的,但我应该有很多,但我想了两个也跟大家探讨,如果你能想到。
啊,高语境在书写语言中,在公共舆论中显著的作用啊。
你可以来说更多好,我来说第一个作用啊。
第一个作用呢,就是我们在平时生活中这不叫作用,所以是。
一个,呃,使。
用场景吧,这个使用场景我们经常遇到,而且我们经常听说就是这个高级黑低级红对吧?
其实高级黑低级红本身啊,就是一种高语境的呈现,因为你要呈现出。
一种非常精微的边缘化的反讽,对吧?
这种精微的边缘化的反讽,实际上是需要非常强烈的语境才可以构成的。
那么这种语境呢,是我们平时在表达的时候,尤其是表达与这个sensorship相关的表达,一个非常重要的一种策略。
这种策略我当然说这个高级黑低级红只是里面的一个例子而已啊。
就与此比较相关的类似于这样的策略还非常多好这个东西啊,我觉得大家可以试一试啊。
大家完全可以试一试你让任何一个Rone让任何一个让他模仿,用这样的口吻写一段评价,那么这个写一段评价,其实你会发现他写出来的东西啊,其实他没有办法真的把它写成,比如说高级黑,他没有办法,没办法真的写成高级黑,他写成的就是那种网络trolling的文章,就是他能够唯一模仿的就是网络trolling文章就是都不高级,就是他就是讽刺。
就是他他。
他唯一的模仿就是以一种类似网络阴阳怪气的方式写一段讽刺文,但其实无法出现出我们平时看到那种非常微妙的高级黑的东西。
所以这个是largelanguagemodel现在无法实现的一个高语境啊。
这种汉语的高语境是无法实现的。
那么第二个其实我觉得还有一个是我们书写语言,这种典型的高语境运用啊,就是社会身份的构成。
我们在网络中有各种各样不同的社会身份,包括二次元啊,包括女性主义者啊等等等等。
这种社会身份的构成,都是在非常微妙的网络讨论之中,用一些比较符号化的语言和一些语言方式去构成的。
而这种语言方式里面有一些只有这个群体内部可以懂得群体外部不懂得的一些微妙的感,就是这个高语境的内容。
那么这个高语境的内容呢,我们取得这种社会身份的资源,就是靠着这些内容通过识别来完成的。
那么如果largelanguagemodel是不行的,假设我未来我是一个呃,二次元吧。
我写很多二算文章哦,我过去自己写啊,现在我懒得自己写了,我就让这个largelanguagemodel给我写,那让largelanguagemodel给我写呢。
他的写的内容就会失去这样的语境素材和失去这样语境能力。
那长此以往啊,在这个领域之中的很多文章和内容,就会让这些语料失去对我们那种语境的价值。
如果我用一个比较俗气的话来讲啊,用一个比喻来讲啊,他长此以往,社会上大部分的语料都会丧失情绪价值。
就对个体来讲一种比较微妙的情绪价值。
那么这种情绪价值呢?
其实我会认为它会加剧焦虑感的生成,也会加剧个体的身份危机,因为你能够构成身份的资源。
在largelanguagemodel生成内容之上是很难附着的,所以这也是一个比较大的问题。
好,我们前三部分讲的问题啊,第一个问题就是说理爆炸,第二个问题呢是地方化私人化语言的大幅减少。
第三个问题呢,就是中文是个高语境的语言,那largelanguagemodel是很难生成高语境的文本的。
好,最后一个我找到内容啊,就是这个概念本身的空洞化,或者说概念演化的终结。
首先我们知道啊,各种largelanguagemodel在说理过程中都非常喜欢概念,尤其是这个deepsickRonedeepsickRone在hallucination的情况之下,会喜欢使用一系列的概念啊,这些概念未来你很可能会发现在中文语料也越来越多。
的包括但不限于什么量子啊,算法衰变啊,漂移啊,带宽啊,坍缩啊,晶体啊,熵增啊,暗物质啊,节点啊,拓扑学啊,解码啊,空间啊。
如果你未来看到一个文章啊,里面有大量我上述这些名词的话,毫无疑问,它是deepCRone生成的这deepCRone发疯的一个非常重要的方向就是往这个方向发疯。
那么这种嗯词汇呢,在中文语料之中啊,如果未来很多人用deepCRone生成内容。
那这种语料就会越来越多好。
那我们说回来概念啊,概念这个东西啊,我们我之前讲维特根斯坦,大家应该也知道啊,概念这个玩意儿呢,它根本就不是靠定义来完成的。
我们是怎么理解一个概念呢?
我们是靠使用来理解一个概念的,是在不同的情境之中依。
靠我们去活用一个概念,让概念能够来表达我们的目的和表达我们的感受的。
因此啊。
概念本身黑格尔有个话说挺有意思啊,说概念是最自由的啊。
这概念的自由性我觉得是个非常有意思的点。
但是largelanguagemodel使用的概念是非常非常死板的概念,那么largelanguage使用概largelanguagemodel,它本身就是个tokenprediction,所以说它使用概念,它它完全不知道语言游戏为何物,它就是只是按照那个词语的函数分布出词而已啊。
所以当他使用概念的时候,这个概念只是跟其他词语比较机械的并置在一起。
他既没有这个概念,在思想史上的一个上下文的割裂,也不会在这个概念在公共意义之中有演化的能力。
因为现在的largelanguagemodel还无法去跟随社会上非常快速的语用的变化新的潮流来完成一个概念的演化,因此它是跟不上概念演化能力的,所以概念会丧失。
在公共舆论中演化的一个能力,因此。
我们这个主体啊,透过概念通达那种自由啊,和公共领域的能力在里面会丧失。
这边说的有点抽象啊,就你大家可以想象啊,就过去我们怎么发明新概念,或者把旧概念新用呢,就是我们社会面临一个新问题,或者社会有一个新场景,对吧?
在这个场景之下呢,我们就会有个概念与它来进行对应,这个概念对应呢,在使用过程中啊,还会产生一系列的变化和一个概念的在。
语言有一种漂移的过程啊。
这个东西其实大家可以想象,在过去几年或任何时候,当我们面对一个公共事件的时候我们有时候就是在最后需要用概念化的方式去应对嘛。
这种概念在公共生活之中非常非常重要,但如果但是大家也明白这样的概念并不是在公共环境中有某一个人突然发明,由他来完成定义其然跟随使用的,而是在一个网络使用之中逐渐演化,在大家观察过程中形成共识并使用的,对吧?
那么这个过程呢,需要很多实际人的实际主体的参与,才可以达成这样概念的演化。
那么在largelanguagemodel使用概念的时候呢,他们对概念之间是相对不加分辨的,去在生成之中使用的。
就算你让largelanguagemodel说你生成的时候一定要使用这个概念,就算你给他解释解释啊,这个概念其实说的是这么一回事儿,如果是个比较新的概念,我根本不认为largelanguagemodel可以跟上使用它的意思,这个根本就不是它的能力所在。
所以说未来啊,在我们的公共环境之中,如果使用大量这个largelanguagemodel生成内容呢?
那概念的演化会终结那概念的生命力其实在未来的表达过程中是。
死的啊。
但如果这个生命力死了,其实我们本身就丧失了在公共舆论和公共环境之中回应问题的一个最主要的社会过程。
请注意哦,我这里没有说丧失了最主要的。
武器原因是因为概念这玩意儿啊靠你自己用没有意义。
我们任何人都不能说啊,我要如此用一个概念,因此,我可以用来应对一个事儿,概念必须在公共环境中达到某种共识,
这个概念才有力量。
而一个概念的公共环境中,要达到共识,就要走完一个演化过程,走完一个演化过程,需要很多表达主体主动使用这个概念去回应一个问题或回应一个场景才可能。
但。
如果未来这个表达过程是largelanguagemodel参与啊,主体参与越来越少,那么这个概念的过程,这个概念的过程就会丧失。
那么个体呢,也会丧失这样一个东西啊,所以这是。
个哎呀。
比较麻烦的事情啊。
所以说我说起来呢,就是我认为过去的两个大家最大的担忧啊,就是会让虚假信息泛滥,会让个人有思考的惰性,我觉得这个不用担心啊,这个根本不用AI现在我们就是这样的,所以这不不不是AI带来的问题啊,我觉得AI,尤其是largelanguagemodel带来的问题就是第一好,我们总结总结啊,说理爆炸,第二,地方化私人化的语言大幅减少,第三。
一个高语境的语言之中啊,语境的丧失。
第四就是在整个社会过程之中,面对一个社会的新处境新问题概念演化构成的丧失,这个会让个体有比较大的无力感,
对吧?
所。
以总结起来啊,如果我们要总结成一个模式的话,那largelargelanguagemodel就会让。
如果largelanguagemodel在公共舆论中大范围使用,就会让公共舆论其实无法回应现实。
啊,最后就会让在网络上多出一大块,看上去在讨论现实,在回应现实的内容,实际上完全脱离现实的语境,脱离现实的目的,因为它是largelanguagemodel生成的。
而真正的现实在这么多的语料之下,会被大规模的稀释,被一种形式化的呃语料去占据,就是用的语料占据。
而且这种占据啊,它不只是在文章之上,大家知道很多人可能短视频的脚本啊,长视频的文案啊。
都会使用largelanguagemodel来生成它甚至都没有用。
呃,AI来读稿,它就是真人读的啊。
但是真人读的读的是AI的稿子啊。
所以整个这种形式化的语料,可能会因为它的效率很高嘛,会很大程度上充斥到我们的网络之中。
那充斥到网络之中呢,我会觉得它没有疼痛感,它不会让人觉得啊,好疼不会,但我觉得公共舆论会进入到一种很别扭的状态,就我们很快会觉得看什么都有点不对。
而且这个不对不是让人恶心,而是说他给你一种无力感,就公共这个无力感,跟现在我们所面对的无力感不是一回事啊,
就是他本身那种空洞感和他本身那种,就是我刚才说的这种大规模的说理爆炸,这种说理的门槛越来越低,但是又并没有在任何意义上真正回应那个问题,讨论那个问题,或者说你看上去一套一套的术。
语特别来劲。
但你仔细一想,完全跟你的这个感知感合不上的这种感觉会特别强烈。
那么这种感觉强烈的,我觉得会从整体上扭。
曲公共舆论对于真实世界的关联,那么这种关联一旦扭曲了之后,其实我会觉得啊,个体在社会上会越发的无力。
这就是拉largelanguagemodel可能未来如果大规模使用的话,可能会真正我认为会导致了一定的问题啊。
呃,当然这个人的预知能力是非常有限的,我根本不认为啊,我现在已经做出一个预言,未来就会如此如此如此。
呃,可能会有比我想象中更严重的想象不到的事情会发生,但是我提出的这个思路了,就是如果我们要去设想垃圾languagemodel真的大规模使用,可能对社会有什么想法的话,这个问题是需要想象力的。
那么过去想包括人的懒惰啊,思考减少啊,虚假信息泛滥啊,这个赫然。
我们还在前AI时代的问题在设想AI的影响,那么AI的真正影响啊,可能是需要一定的对于呃,语言学的想象力或者社会舆论的想象力来构成的。
而这个问题不管是创作者还是信息接受者,越早想越早知道该如何去应对它,这绝对是我们所有人需要去共同应对的一个问题啊,也需要我们共同增加分辨能力的问题。
那说到最后,我想说一个。
呃,这是个不可避免的时代,包括我在这期,呃,节目的使用之中,呃,这个文本和提纲的生成之中啊,我也使用了很多AI在很多问题之上帮我来进行brainstorm,但是我不得不说啊,在今天能够跟AI,尤其是跟今天生成效率如此之高,
生成文本量如此之大的AI协作其实是个要求很高的事情,就如果你不被AI牵着鼻子走你能够相对主动性的使用AI其实对一个人的。
分辨能力和对一个人组织材料的能力,对于你自己拥有一个相对比较坚实的逻辑要求是很高的。
所以说AI绝不会非常快速的让人如虎添翼。
对于一个可能经验没有那么丰富,或者对于文本分辨能力和分析能力没有那么强的人大规模的使用,AI写作其实会从根本上冲击到你的表达,会冲击到你的表达欲望,会冲击到你的表达能力和表达空间。
是这样的。
所以说。
但是很多人会因此表达,因为这个确实太方便了。
如果人又是真的是身心上比较懒惰的,其实绝大多数人还是会使用largelanguagemodel来表达的。
但只是。
它就会成为largelanguagemodel一个非常被动的传声筒的角色。
所以不管是个体表达者如何与largelanguagemodel协作,还是我们作为信息的阅读者和接收者去分辨AI内容。
其实现在的这个东西啊,都提出了很高很高的要求。
哎呀,这个要求可能还真的不在这个proofreading就是这个信息。
factshake分辨之上可能还有好的别的东西是需要大家去加强的呢。
OK,那我这期节目大概想讲的就是这些啊,我现在有非常非常多的内容包括我开头提到的有两个,我其实已经讲过deepseek,我做了一些非常细节的测试,然后大家都可以在showNote的第一条去下载到我所有服务的清单,在所有服务清单之中,你就能接受到所有的内容包括各种各样各种各样都是免费的。
那我一个人可以提供这么多免费的知识信息服务呢,跟大家的支持是分不开的。
非常感谢过去一直以来支持我的听众和这个观众,也欢迎有更多的朋友朋友未来一直一起支持我的创作。
相信在这么一个后AI的时代啊,我应该能够生成和制作一些与大家的生活更加贴近,与这个问题的解答可能更加贴近的内容好。
啊,如果你希望支持我在这个showNote里面也会有在爱发电和Patreon的支持方式好,那感谢大家了。
那我们下期翻脸special节目再见,大家记得敢相信也敢分享你的消息。