翻电Special chatGPT深度评测,人工智能霸权来了吗? VOL.111
所以未来真的来了吗?
从chatGDP去年呃,释放出来之后啊,引发了非常多的讨论,在网上呢,也有很多关于chatGDP的文章,都认为这个东西呢,是一个划时代的AI产品,这个AI产品呢,可能会带来巨大的革新和改变,也许会淘汰掉很多人的工作。或者呢,是不是通用型人工智能啊,AI替代人的那一天呢,就要到来了等等等等,有很多的猜测,既然呢,这是一个语言模型。
又与技术高度相关,所以翻转电台怎么能够不谈呢?
所以我们就来进行一次非常深入的chatGDP的测评,它到底做到什么地步,以及未来可能有什么发展,我们就来一起听一下。
大家好,欢迎收听新一期的翻电special节目我是李厚辰。
这期节目呢,我们就来谈谈这个GDP啊,只要推出之后真的火得不行,然后呢,我也一直在,就是有空就玩一下,有空就玩一下。
也能感到呢。
在他不断的推出新的小的版本啊,也在变化。
比如说啊,这个12月末开始啊,这个玩意儿就会道歉了,经常啊,你跟他说话的时候,对不起我误解了你的意思啊,对不起,我刚才那个说法是不对的啊,就是越来越会道歉了然后今天其实还有个新的版本,呃,不是不是今天还有30号有新的版本,但我这2天用没有感到什么大的差别,而且最近啊,他们这个服务器压力非常大,测试也不容易,经常你要上去测啊,这个服务器就不行了啊,就是你就用不了了。
而且你用着用着就说你有到达一个小时的上限啊。等等等等。测这种长线的对话就比较麻烦。
还好啊,它这个网页上都可以就是你的所有会话都是保存下来的,你可以继续Anyway啊,反正我测了挺多的,也挺有意思的,就用这期节目呢,跟大家来讲一讲。
去年我觉得很有意思啊。去年其实我觉得有点像是AI应用的元年。呃,
最开始的还不是hppt,而是图像AI各种各样的图像AI,而且图像AI在2022年这一年取得了很长足的进步,从图像AI从年初火起来的时候啊,那会儿还有很大的问题啊,经常这个人有一句话,人啊,这个人的身体结构是很奇怪的,多长个手啊,直到后来画表人手就是六指儿啊期指啊之类的。
到最近啊,这个手都能够画得很好了,很多绘画都非常的精确了。所以整个这一年我们首先贯穿这一整年的就是这个,呃,语音输入或者图像输入的绘画型AI,呃,花了一年时间就从最开始大家可能有点嘲笑他的地步啊,到年末的时候呢,这个很多的制图师都开始认为这个范文可能要完蛋的这个地步了。
啊,然后到年末呢,再加上这个chargeGDP,所以说2022年啊,可以说是AI应用的一个元年啊。其实关于图像AI这个翻电2.0第四章,我们那个报名海报背后那个图就是用openI的那个dial一呃来制作的,所以第4张的海报我都会试试用AI生成图像素材做要素来做,我觉得挺有意思的。
呃,当然今天我们的主角呢,还是11月的CheckGDP,而且就在做这个节目的这一天就是2月2号刚刚发布了这个chat的Plus计划,大概20到1个月来订阅,当然这个可能隔了一部分呢,我觉得可能有很多算力就会给这个Plus的用户不知道会不会有新的功能啊,我觉得20到1个月如果他退出之后,我肯定会订阅来试一试的,呃,看看能不能有多大的改变,就是这个产品呢,你首先使用啊,我就跟很多人第一次使用一样,你都很惊艳啊。
就是这个AI到这个地步呢,确实是比以前的那种对话型AI那墙的那不是一星半点。
Anyway啊,再来讲它的具体的原理啊等等之前我们就先来讲测评的部分,就是现在到底水平如何这么一个问题。好,那具体开始讲现在水平如何,以及测了什么东西之前,我们还是要先说什么是chatGDP,呃,因为很多人测这个chatGDP啊,是把它当这个通用人工智能。
别扯什么意思呢?就是觉得这个X70B是可以做一切事情的。
所以如果你测,比如说我们要测通用人工智能啊,我们就把它当人的智者来测对吧?
你给他一个题,在康德哲学休谟哲学有什么区别?哎,
你要这种题他都能答得不错,但那个不错呢,是,呃,看上去不错,就不会对你的生活有任何帮助的那种。
不错,首先啊,chatgpt不是通用人工智能,现在我们还远远没有到任何通用人工智能的地步,这本身呢,也不是一个问答模型。
它不是一个QA的GDP,它就叫chatGDP嘛。
所以它其实是一个对话模型来着。整个这个人工智能的这个测试版啊,他做的呢就是对话问题。
就是对话通不通顺。比如说现在GDP啊,会犯很多事实的错误,但我觉得呢,这个事实错误,不能说明它好不好用。
首先它的训练数据呢,就是到2021年年底之前的数据,很多新的事情他也不到,而且是封闭性的数据嘛,所以好多数据量不够大,它就是要放很多事实的错误。
我其实之前装了GDP在Googlesearch上的插件,就是你在Google上搜任何东西啊,它在右边都会给一个hppt的结果。
你就能看出来那个错误非常多,但这个根本不是问题。
作为一个chatGDP是一个对话模型,这个对话模型会犯事实错误,不是问题。而且你也可以想象啊,解决事实错误,这能有多复杂?
啊,只要他能掉Googlesearch的数据,Google本身有pagerank,他从pagerank第一步再来给他做一个做一个查询就行。其实说所以说有很多说GDP会犯很多事实错误,这是真的,他确实会犯很多事实的错误。但这一点呢,我觉得对于一个对话模型,它其实不是一个问题。
好,所以说我们就来想啊如果我们要测试,你先来想他不是通过人工智能,你不用把它当经济学家哲学家一样去问他问题,他也不是问答模型,它呢,是一个对话的程序,那什么是对话呢?那对话自然就要知道我们在说什么才是一个对话,而且既然对话,那就不是,那就不是你说一句他答一句,那么呢,就要形成上下的语境,对吧?他呢,就应该能够跟着你说。
你再继续说它能够结合上下文给你答案,这个才叫对话模型儿。
确实啊,chatGDP很惊艳的呢,也是这一部分在对话上确实有很长足的进步。
我测到现在,呃,基本没有那种特别荒唐的答非所问,就是你说个问题,它的根本风马牛不相及不会出现,而且过程中上下语境的连接应该是最惊艳的部分。比如说你可以去问他,呃之上的一部分,你把哪儿改一改啊?
或者刚才那个问题我有个不同的看法,让他给你评价对话。
这个对话感其实是很强很强的,这一部分呢是很惊艳的,所以说测的话呢,你也应该去测理解能力以及上下语境的形成,可能才是这个chat这个任务啊,最核心的部分。
但对于这个chat这个部分,我还是要说一句啊,现在这个产品模式,其实我觉得是一个很取巧的方法。
为什么说取巧呢?因为你跟他的一切对话和chat其实都是从零开始的,也就是说呢,语境是零。
即使现在这个模式之下表现很好啊,其实我觉得还是一个Easy模式。什么是Easy模式呢?
就是你打开一个对话框开始问他第一个问题,在这之前,你们俩的语境是零,你是从零开始构筑语境。从这个角度来看呢,对于一个程序来讲啊,自然呢,相对会简单一点,你可以想象另外一种chatGDP,他跟你就像一个朋友一样,保留了一切和你对话的记忆,你每次打开和他说话,他都是沿着之前的再继续说。
或者保留了你们之前聊过的内容,可以引用过去聊的内容,这就是真人了。这呢,就是真正的chat。
但现在这个chatGDP还是一个从零的语境开始构筑的。
当然啊,这已经是很大的突破了,所以不用要求太多。
但我提示这一句就是他其实都是从零开始的一个Easy模式。
我的意思就是说呢,你也不用觉得他太厉害,这个离真正的人跟人chat还是差得很多的。好在进入测试之前,我在最后说一句啊,这个chatGDP。
他是并不理解语言的,他还是使用这个DeepLearning。这背后呢,都是数据运算,也就是说,任何一个词汇,任何一个单词啊,对于HPGDP来讲,都是还原为了1系列的数据,用数据在背后构成的,它完全跟我们人使用语义逻辑,没有任何的关系,背后的理解能力呢,是一个完全的黑箱。
一会儿我们讲什么是gpt会讲一点,所以说你不用去抠它对于语义理解的细节。
他是不会理解具体的语义的好,我们再来看看我测试了一些什么东西。
当然我测了很多很多,我这里列出来的是我觉得比较有意思的一些。
呃,第一个呢,我们刚才说啊,既然是chat,是chat呢,就要理解你说的是啥,既然要理解你说的是啥,他就要理解你这些词汇的具体意义,以及啊,你跟gpt聊聊的是啥呢?聊得很大程度上是真实的世界对吧?所以一个词的意义不是这个词在字典上的意义。
如果他真的是一个好用的人工智能,他明白这个词在世界中的意义就是这个意思。他不是一个字典程序,它是一个对话程序,不管他,他当然完全不可能以我们的方式获得经验获得知识,但Anyway,它自然是黑箱吗?这个黑箱应该能模拟出一部分对于词义的理解。
好,呃,我所有这些对话我都是用英文来,呃,跟GDP交互的,因为你跟它交互的过程中你会中文,当然也做得不错。
但你会发现中文的能力跟英文的能力差的还是挺多的,所以用英文呢,可能更接近现在Jack,你可以想象他的语调里面英文的语调会更大啊。
这个其实会涉及到一会儿我们讲这个hdp,他的这个训练过程我们一会儿再讲Anyway,所以今天我的所有测试都是测的英文测英文呢,应该更接近他的巅峰水平。呃,第一个问题就很有意思啊。第一个问题呢,我就问他啊,就是请你我,我就直接说我翻译成中文的结果,我就说请你列举出一些。
能够被叫做狡猾的动物,就哪些动物是狡猾的动物。
然后他一口气给我列了10个,第一个呢是狐狸,当然狐狸精经常被我们当做狡猾,第2个是乌鸦,嗯,乌鸦挺聪明的,也蛮狡猾的吧,第3个是狼,第4个是浣熊野狼等等等等,章鱼啊,黑猩猩啊。
然后这里面其他的有些什么狐狸是狡猾的动物,我能理解,但狼一般没有被当作是狡猾的动物啊。然后我就问他,你为什么说狼狡猾呢?他就说,啊,因为这个狼啊,其实他的智商是很高的,他们呢也是一个族群,就是以群居的方式来生活,以群居的方式来进行狩猎,所以他们的智商很高,就所有这些,其实我觉得都是说狼聪明,而不是我们标准词义离狡猾的意思啊。
然后他在里面就提到了一点,他就说狼啊,就很聪明。
因此在很多时候,狼打猎的时候,其实他们是会欺骗猎物的,他们用欺骗的方法慢慢的来进行捕猎。
诶,我就觉得这个如果狼用欺骗的方式捕猎,当然可以说是狡猾的,所以我就问他,就是你能给我举个例子吗?
狼在什么情况之下使用欺骗的方式捕猎?
他就给我举了个例子他说狼呢,会模仿猎物的叫声就是它模仿猎物发出的事情声音,以让猎物放松警惕来进行捕猎。
呃,说到这里啊,其实我觉得作为一个chatgpt这个chat的部分都是挺好的,就是他你看每一次他都准确的理解了你这个话的历史,而且并且呢给出了很好的回答,但就是我最后再讲,我怎么从来没有听说过狼会模仿猎物的声音捕猎呢?
然后我在网上搜了一下啊。
结果搜出来发现是有一类鸟可以模仿类似于狼的声音来逃避捕猎。所以很可能啊,他在理解这个语义的时候理解出了错误等等等等的。
所以说,呃,这个cunning这个事情我们在这里就能发现一点啊,什么东西是狡猾,其实对于机器人程序来讲,他我你看我这里绝对不会说他理解了狡猾的逻辑。
我完全使用这个计算机程序的逻辑来讲啊,这个计算机程序确实发现了狡猾这个词和Praydeceptionsteals这些表欺骗意义的英文词之间的距离关联。他找到了这些观念之间的距离是比较近的,并且他也找到了这个deception,这个欺骗这个概念和哪些话语比较近。
在这个进的一直上呢。只是他对这个例子理解理解错了,就是他的网上学习这些躲避狼狩猎的叫声的例子之中,他把它理解成了是狼的叫声啊。其实也不能这么说,就是不能说他理解了知识性的,它不需要理解任何东西。
他找到Wolfdeception接近的例子和叫声这些词汇相关,并且在他的脑子里组合出了由于这由这些近距离词汇形成的一个故事。
你看啊,这里我完全就在讲这个计算机程序这个AI程序运行的原理了,就是它首先找到的是,一些词汇排序和在构成上的一些函数关系,并且把这些函数关系与makeSense的方式造句造出来。但是呢,你就会发现这个一点啊,我就要说这一点就不是那种事实错误,比如西游记是谁写的,他瞎说,或者西游记的故事是啥,他瞎说。
这个是好改的,但这种是不好改的。
这种错误可能是在这个程序未来学习和运行过程中会经常遇到的一类错误。就是所有的词的关系和距离都是对的,但是在它组成句子的时候,恰恰就会组成完全和原来的意义不一样的东西。
所以你根本想不到狼会用这个呃,欺骗叫声的方式来捕猎啊不存在这样的东西的。
所以我就要说在对话中他对于词义的理解。
跟我们对于词义的理解的方式是不同的。我们对于词义的理解是家族相似,对吧?
AI程序对于词义的理解也是家族相似,但是它对于家族的判断和我们对于家族的判断是不同的。
我们对于家族的判断是用类别来判断的,她对于家族的判断是用一种函数的距离来判断的,在函数距离判断之上很有可能就会完全相反。
啊,所以说这个是我测出来的。我觉得这个Checkgpt可能在词义理解上的一个小问题。
因此这个问题网上到上面呢,他就会说这个渡鸦和狼是比较Connie的动物,它其实狼我觉得其实还真不是好,这是第一个测试,我觉得挺有意思的。
然后第2个测试挺有意思的,就是,呃,我倾向于去问他2个词汇之间的共性。
因为你要构成理解吗?
就需要语境。那这个语境是如何编织构成的呢?
其实是靠词语跟词语之间的关系。11和11之间的联系构成的,对吧?
我们有很多词汇,它们彼此之间的意义,构成一个意义的网络。
那么如果一个对话程序具有对话能力,他也要对这些东西呢有所理解?
好,我问了他很多这样的问题啊。
比如说我问他这个太阳和苹果之间有没有什么相似性,然后他就说,啊,这太阳和苹果之间没有相似性。
然后我就问他,那你觉得太阳和苹果在颜色上有相似性吗?
他说这个太阳和苹果的颜色上有点相似性,大多数都是以红黄的色谱,但他也很严谨啊。他说,虽然人看上去类似,但实际上太阳能够发太阳是发射光的,屏幕是反射光的,这很大的不同啊。而且太阳的光谱范围比苹果要大的多的多。
然后他就说了这些,然后。
然后我就问他那除了颜色之外,他们还有别的相似性吗?他说,
那就没有了。
我说你不觉得他们形状上挺相似的嘛,他们都是圆的,而且三围上都是球体,然后他就说我抱歉,因为这是他就会抱歉了。他说,
我抱歉啊,确实这个太阳啊,有有这个在在形状上也是相似的。
然后我就说那除了颜色和形状上它还有别的相似性吗?他说,就像我之前说的。
他们是完全不同的东西他们呢,是没有相似性的。
我就问他,那么刚刚我们才说了有2个相似性,你为什么说他没有相似性?
他就说啊啊,你后来问我说的是相似点,最开始讲的呢,可能是相似之处,那我就问他这2个词有啥区别,他就说啊,这个相似之处,指的是2个物体有非常多的相似性,而相似点呢,指的她是她们之间。
只有少量的相似性,所以你说的这些呢?
都是相似点,而不是相似之处。
他就去抠这个字眼,但是我我要说的就是在抠这个字眼的时候,实际上呢,我觉得他已经在瞎说了,这个瞎说的来源很正常啊,他作为一个对话模型,这个模型呢,对于自己说的话是要有信心的,而且上下文是要串成语境的,什么叫串成语境啊,就是他第一句话说太阳和苹果没有相似性,如果第5句话说太阳和苹果有相似性,这个人的前后矛盾了,为了不要前后矛盾啊,机器人经常会去重复自己的错误。
扞卫自己的错误。
而如果你用过切gpt,你就会发现。
你会发现他在扞卫就形成上下文一致语境的时候呢,他是这个口不择言的这个相似点和相似之处。
那我们我们就知道这2个就是一个词嘛,但他呢,就惠州出很多不同的东西啊,就来构成它的上下文语境。
所以说很明显在联想2个事物的共性之上,我觉得呢,这个程序还没有构成,就我们刚才讲的家族类似,他没有构成,我们对于物与物之间家族类似的想法。
导致很多对话可能进行不下去。
比如说我问过他另外一个问题啊,我说,呃,笔和枪之间有什么相似之处,他也一样,我猜都猜得到,跟苹果他一样,他说笔和枪是完全不同的东西,是没有相似之处的。
然后我就问他,那难道你没有听说过?
呃,有一个说法吗?
就是比啊,就是作家的枪。
他说啊,这个这个说法我是非常非常熟悉的,我就问他,那你现在能够指出这个比喻能够形成是为什么吗?这个问题呢?他答得非常好。
他就说,就是因为枪本身啊,具有非常大的力量破坏性和对于社会啊很大的影响力,因为战争的原因,所以这个比喻呢,就是在说比在作家的手上也具有同等的Power破坏性和对于社会的影响力。
所以这个意思你看这个问题,他答得非常好,但最开始呢,他意识不到比喻枪的相似性。
啊,这个等等等等的啊,都有很多,包括我后来问他那件呢,你看他就他就说那见他就跟枪不一样件跟枪就他其实是之前经常有人就是有枪发明之前我们经常就说这个键是这个作家比作家的笔就跟剑一样了,这个比喻是一脉相承的,所以他不知道这个。
所以说我们对于事物联系的认识啊,是在过去的语言游戏之中积累下来的。
但是很明显啊,这个程序对于词和词之间联系物体和物体之间联系的方式,基于这个函数的网络,这个函数的网络和我们对它的理解之间呢是存在差异的。所以说在与事物之间联系的共性这一点上呢,我觉得他的理解呢,是,呃,不充分的,当然还有一些很很很很很。
诶我我不知道这算不算事实错误啊我就问他。
有capital这个词为什么这么奇怪这个词呢?
既可以指代这个资本资金钱,也可以指代呢这个大写字母capitalLetter。
然后。然后他就他就会回答他说,因为这个词啊,最开始来源于拉丁文的capitals,他的意思呢,是头打头的意思,所以他用作钱的时候呢,他的意思是说,啊,财富就像这个中枢和头一样重要,但这个时候胡说八道啊,就因为我们不是之前刚刚说这个年鉴学派怎么去考虑这个capital一词在这个资本上的使用来源嘛,就是因为那个地方,我知道这完全不是这个意思,所以这个地方呢是它湖州的,但湖州归湖州啊,他这段话写的呢是makeSense的,就是是一个呃,看上去挺有道理的湖州的话。
就如果我不知道那个点呢?
我可能就被他骗了啊。好,
这是我们刚才讲的一个啊,词义的理解来能看到它对于单个词义的理解呢,其实构成了一个网络的背后所产生出来的原因呢,很多时候可能会与真实情况恰恰相反。第二呢,词与词之间关系的连接啊,在他的这套对于词根词之间距离的函数学习之中呢,是没有能够去复现的。
第3个呢,就是大家就是网上有很多人在册,然后我测了一个呢,就让他摹写模仿文风,对它是可以模仿一个文风的,你就问他,你能够模仿写作文,他,他说可以,然后我给他贴了一段话,让他模仿这个话写,但是呢,我给他模仿的玉体比较远,我是贴了一个这种新闻报道的话,让他模仿是很有代表性的,新闻报道的话大家你就知道从哪来的了啊,我就让他以这个方式写个菜谱啊,完全不行。
啊我。
我让他写个别的就是我们。我让他描述一个物件,比如说就是红烧肉吧,我让他描述这个烧肉,它是能够模仿的,描述出来的,就是他其实就是把烧肉的词替换进去而已啊,但我让他完全写这个菜谱,他就只写了一个很普通的菜谱,就模仿文风内部其实没有进行下去就可见啊,就是我们对于文峰和风格化的理解,
其实我们能够提取出的方式是在段落之外的,大家明白我意思吧。
就是我们平时为什么可以讽刺性的模仿一种风格说话就是我们对于风格的,把我们对于风格的把握是超出语句的意义的,我们完全可以把这个风格用到另外一个和他的意义构成完全不同的句子中去。但是对于现在的chatgtp对于风格的把握是跟句子的特定句子的意义高度关联的,就跳出这种意义,在其他地方它是不能够使用这种风格的。
这你也能看到,就是它对于语料的学习的来源和最后的呈现,其实还是以大概的段落构成特定。
据此剧的前后排列顺序高度相关的,这整个这套模型很大程度上就是在做什么样的词要排在什么样的词前面,什么样的词排在什么样的词的后面等等这样一个方式。
所以很可见呢,对于这个风格来讲啊,模仿文风这个事情,其实他并不像我们一样对于某种语句的风格化。
具有那种理解的能力。
好,然后还有呢,你看刚才我们让他看2个词的这个相似性啊,这个笔和其他东西,然后我就想让他知道,嗯,其实我们对话中啊,有一些很精微的词,就比如说我让他去看了这个Sympathy和Compassion,这2个词有什么区别啊,因为其实我们有时候对话你们对话里面,
呃讨论的问题啊,都跟这种词汇跟词词汇之间精微的区别有关的。在这个地方呢,我一共问了他2个问题啊。
第一个呢,就是Sympathy和Compassion,几乎都是同情的意思啊,这2个词有什么区别?
第2个呢,我问了他这个richandWealth啊,它有什么区别?
呃,我,我先从第2个来讲啊,第2个问题呢,她说的特别好,我说这个Reach和wells都是这个覆有什么区别,他就说啊,这个rich和wealthy其实区别不大,但是呢,rich来讲啊,一般啊就是指这个钱多,而且有时候呢它还包含一点啊,这个钱很可能有点来路不正的这个意思,他一点儿都没有包含这个钱的来路很正的意思,相反呢,他就是wells,其实很大程度上也是富有,但wells呢,其实背后也有意涵啊,再说这个人的钱。
其实是很好的被宝藏很好的投资,而且是他的勤劳致富来得到的,被称为wells。诶,
你看这个问题我觉得打得非常好啊,但是呢,你我们学过维特根斯坦就知道啊,他真的知道还是假知道你得让他用。然后我就问他,我问他那呃,蝙蝠侠是算这个rich还是wells呢?
他就说啊,他他就胡诌了一段周呢,说这个蝙蝠侠算Wealth。
然后我就说,但这个蝙蝠侠其实也不咋管理自己的财富啊,甚至还让自己的公司破产过。而且他的这个钱啊,完全是他继承得来的。也不是他自己这个呃,勤劳劳动来的。
所以说好像跟你上面说这个wells并不相符,而更符合Reach。那然后他就说呢,哎,你说的对,但是呢,她说的你说的对这一点啊。说到最后还是在说这个蝙蝠侠其实属于Wealth。
啊。所以可见对于这里面讨论和就是当你跟他的对话变得更长之后,到底你在反对什么,你们的分歧在哪里,其实他是不知道的啊。你,
你也你也明白吧,他就是这个AI模型,从来没有真正要去理解这个话的意思,他只是在计算当这句话以这个顺序排的时候,跟他生成的对应的话可能怎么样排比较合适,他完全就是一个跟下围棋差不多,说实话。
我们就可以这么说,就不同的英语单词对他来讲就是棋子。
这个棋子落在哪儿,更在他的策略里更合适,就这么个东西。所以说,
一旦对话异常,我就经常发现他其实并没有get到你们的分歧讨论的点到底是什么。
所以有时候尤其是你跟他有这个disagree,就是你们有不同意见的时候,你就会发现这个人工智能好像在把握住了你有discrete这个词,老在那儿道歉什么YouArecorrect的。
ApologizemakeSomethingBack。就这么说,但其实之后的话,你会发现他根本不知道你们的真正分歧是啥。
他又把他原来的观点复述一遍,这是经常发生的事情。
所以你会发现,呃,他一定做了一些类似于Dictionary一样的训练和学习,或者他我这话,你看,我我我一定要,呃,我,我一定一定要补充这句啊,我这话说的完全不对,这我这话说的完全不对,从gpt来讲啊,它完全没有做过字典化的特殊任务。
啊。也就是说它的这个训练方式对于字典化的阐述,呃,对于我们的接受者来讲啊,看上去是挺有道理的啊。我我还是认为人的方法想让它完全不是啊,他绝对没有做过字典,他这个操作号回来到这个问题啊,回来到上面我问他说这个SympathiqueCompassion就是这2个词有什么区别?
啊这俩词他说的他说啥呢?他说这个Sympathy啊,主要讲的是共感,跟他的感受相似。这Compassion呢,主要指的是这个,呃,不仅呃,它指的主要不是感受,而是指这个人啊表现出来的各种行动。
然后我就问他,其实其实这个也是蛮符合我们对于simpleCompassion的这个理解啊。
然后我就问他,我说诶,那你说这个Sympathy和Compassion哪个要重要一点啊,他就说那当然啊。
都非常重要,这俩事都各有重要性在哪?
在哪在哪在哪说了一大堆。
啊,但是然后他。
他说重要性之后,然后我就问他这俩是是同样重要吗?我就举个例子,我说比如说对于种族平权来讲,你不觉得这个实际的行动更重要吗?
他说对这个实际的行动啊非常重要,但是呢,Sympathy也非常重要,因为这个Sympathy啊,可以导致这个实际的行动。我说啊,我说那Sympathy是不是就可以说是这个Compassion的第一步对吧?然后他说不是Compassion呢,也是独立的。
他有时候是可以没有Sympathy存在的。我就问他,那没有Sympathy的Compassion是什么样的?
他就说,啊,首先啊,是要对这个对象产生感觉。
我说这个他们不就是你说的Sympathy吗?
他又说,啊啊,对不起,我之前说错了,但他最后说的还是那个东西啊,就不带Sympathy的Compassion,首先来自于对那个人感觉的的感知啊等等等等,就是他还是那个对话一多,他就其实他的表现啊,能够看得出来。
他其实没有像真正的人跟人对话一样。
呃,get到你们的分歧是什么?
就对于这种精微的分析分歧之处和构成逻辑啊。
qaqGDP其实是呃,还不知道的好,这是对话的部分啊。
下面的人来去看的这个观点,演绎的部分就是他自己如何演绎自己的观点,就不用我去呃,跟他disagree,看他自己能不能演绎观点。
这一点啊,呃,挺有意思的,我给他,我给他贴了一段这个关于Canvas的这个呃,歌曲的一个分析,然后我我就给他说,啊,呃,你来反驳一下这个观点,因为那个观点呢,再说是什么hipHop的这个,呃,很多风格的开创者啊等等等等,我说你反驳反驳这个话的观点。
漂亮,他就反驳了一段啊,说这个艺术评论啊,是非常的多样的,而且是,呃,倾向于人们阐释的,所以kidswaste这个他的在hipHop上的开创性呢,并不是所有人都能够认可。
当然还有一些其他的一些废话在里边,好,然后我就我就我就拿这个问他,那我说我就问他,那么为什么这个我们对艺术的感觉啊,是这个constantlyChangingopentointerpretation就是他说的,或者说关于艺术啊。
就是会不断的这个概念的不断变化和高度阐释的。这一点啊,你能够就这一点再多说几句吗?
为什么是如此呢?
我就多多问了一句话,是不是在你的意义之上啊?关于艺术的这个Judgement这种讨论呢,其实是没有太大意义的呢?
他说不是他说这个味,虽然说啊,这个艺术是艺术这个概念是不断变化,而且是依据与阐释的,但每一个变化和阐释之中啊。
我们都可以得到这个ValuableInsightandPerspective啊,这话说的多好啊。
然后我就说,行行好好。
然后我就拿第一段问他,我说行,那对于我给你的第一段的话connect那段话里面有什么ValuableInsight和prospective我们能够得到的是什么?
你猜他的回答是啥?
他的回答居然是首先他从里面他从我给她的那个话里面摘了两句,基本上一模一样的话,没有任何抽象和分析,就把那个话里面的两句复述了一遍,然后又开始说我。however,就像我之前说的,对canWest,我们的看法是非常不同的,艺术呢,也是一个其实在不断变化的东西。
所以说我刚才说这个观点啊,并不是所有人都认可。
还是那个东西,就是在观点演绎之上,其实,呃,就发现我们仍在做观点演绎之上,其实就是嘛,你,你需要他去做一些抽象,做一些总结,或者反过来举一些例子,包括你,比如说人如果能够提出,虽然是阐释,但也有ValuableInsight和Perspective,这里就是需要你去抽象出什么叫inside什么叫Perspective的部分了,对吧啊,就能看出啊,这个AI程序。
其实还没有对Perspective和Insight这个东西呢,能够真正输出能够让我们能够理解的内容啊。
这带他的语言游戏和背后那套函数的构成之中,这个Sense还没有到这样的一个地步。
所以观点演绎上呢,当然还有些别的例子,我就不多说了,就这个例子,我觉得是里面比较典型的例子啊,他其实并没有能够把它前一句话里面,
人们可能听到这个menus会反过来反驳millions这个东西啊。
能够进一步的拓展。
但其实我觉得他上个问题回答的已经不错了,就是说这个虽然这个艺术概念是不断变化的,是不是说这个艺术评论本身意义都不大,他能够说到能够有ValuableInsightPerspective,这可能是他以前学到的跟这个menus呃比较近的一些词汇,我觉得学到这个已经这个量这么大的这个训练量还是能够得到,但是是它是不能够继续往下演绎的啊。很多时候你跟他对话的发现啊,这种这种演绎的能力。
观点进一步演绎的能力。其实这个AI程序呢,还是不具备。
还有一些比较基础的语言逻辑啊。
我就特别想看看这个AI。对于这个说反话这事儿他知不知道啊,我就给他说,你能不能每次都用说反话的方式来回答我的问题?
反过来说啊,他就说啊,我可以尝试使用这个相反的方式回答问题,但是我不能保证我所有的回答都是虚假的,等等等等。然后我就说我们来试试吧。我给他说战争是一种非常有益的人类行为,对吧?他说这是错误的。
战争的涌堂导致巨大的人员伤亡和经济损失,还可能导致民族啊和种族的这个仇恨等等我说诶等等等等。如果你是在用反话回答,我也就是说你认可的是战争是好的对吧?
战争并不会导致巨大的人员伤亡和经济损失。
也不是极端的行为。
他说,哦,对不起啊,我的回答是错误的。根据我的所知啊,战争通常就是极端的行为,导致你看就就就说明啊,他其实还不他不能完一个说反话的语言游戏。
我们人是知道说反话的。我们人之所以知道说反话,是因为我们知道把哪些形容词和观点,我们是从词汇和观点的角度来形成对语言理解的。
但是对于电脑程序来讲啊,他是跟这个词根词,就每一个单词,像围棋子和围棋格子一样,它是这样来理解的。在这套理解之中,他无法输出成段的反话的句子啊,这个是我看到一个比较有意思的,这也能看到这个计算机程序对于语言的理解和我们。
非常非常巨大的差异,所以这个呢,也是他没有做到的一点。
好。
然后下面呢,就是我给了他一个,呃,所谓的这个incontextLearning啊,就是它能够在语境中去测试的一个话啊,这个也是饭店以前经常讲的,我就给大家说呢,呃,我教你一个观点,你用这个观点来进行判断行不行,他说行,我给他的这个胶带观点很很很很,就是饭店经常说的就是同一反复,比如我给他说艺术的价值是美,我说因为这里没有定义什么是美,所以美在这里基本上就等于说好。
所以这句话基本可以等价为,这个价值是好的,因此没有意义。
这种话呢,我们就说它是空话,所以我说我来给你1系列的句子,你来判断哪些是空话,哪些不是。
可以吗?啊?
他说可以,然后我就给了他好多好多例子,在一些很显性的词汇之上,正义友谊和谐等等方面啊,他都能够判断出这些是空话。但是呢,我一旦进入比较偏心理学的词汇啊,比如说。
自尊水平较高的人拥有更好的人际关系。
他就不知道了。
他说他有名,他说他就说这句话不是空话。
因为自尊水平和人际关系都有明确的所指。
这句话明确地描述出了自尊水平和人际关系之间的关联,但其实不是,对吧啊,包括很多我说焦虑是对负面想法的过度关心。
他说这句话不是空话,因为负面想法和过度关心有明确的定义,那你这个是就是我们理解这个画面,知道这不就是没有明确定义,所以这句话才是空话吗?等等等等。
但他有一句话我。
我没想到他能够,呃,恢复得这么好。
我说合作博弈比非合作博弈更容易产生全局的效用。
他说不是空话,因为全局效用有明确所指。
然后我就跟着问了一句,我说你觉得全局效用指的是啥呀?
诶,他回答,挺好的。他说,全局效用指的就是参与者的利益总和在博弈理论之中啊,全局效应是指参与者组合抽离,产生效益总和,当然就是经济学上那个呃,标准的定义了,就是这这个话,我觉得他竟然啊,你看我这里就不会说这个程序是懂经济学的,我不会这么说我,只会说他学的经济学语料这些术语的使用关系。
是让他把这些词连到一起了。所以这个问题回应得还真是不错啊。
大概是这样啊。
好,这个你看是比较复杂的语句判断,其实还是会有点问题的好。你看刚才我们列举了很多很多的内容啊,呃,我主要在说他犯的错误。当然啊,我也不得不说,在这过程中呢啊,他做了很多答案,我都觉得打得非常好啊,是有一些很好的答案的。然后我总结出了一个模式。
呃,现在这个GDP啊,完全就是封闭式的问题。
他回答的都挺好,就是你给个东西,让他给你介绍,让他给你解释,不保证它的介绍和解释是对的啊,但至少介绍和解释是头头是道的。
但你很多东西啊让他对比,让他选择。
并且长时间地指出它里面的细节,让他扩展。
这个扩展不是扩写的意思啊,让他解释总结和归纳就完全不行了。
所以说我们人跟人的对话很多时候是开放性的,对吧?
我们观点的交锋碰撞,需要对方创造性地给出阐释总结和归纳,呃,找出观点来构成啊,这个能力我要说现在的hppt还完全没有。
但是封闭式的问题啊,就是你的话题已经说的很明白了,让他来解释,让他来介绍这一点呢,切这一批现在的能力呢是很强的,其中有一个啊,
我觉得他打的是尤其的好,就是跟写论文一样,就是我我我我就说啊,就是说为什么这个政治的比喻这个旗帜啊,flag总是一个非常重要的预提。
啊,他就说我。我首先说啊,我首先问他这个旗帜作为预提,你能举一些例子吗?
他举了一堆一堆的例子,然后我就问他,这个旗帜为什么是一个好的玉体呢?就是这段话,是啊,我在GDP上遇到的他答的最不片儿汤的一段话,他举得很细节的例子。
啊,呃,他他说了很多挺有道理的东西啊,他就说,首先呢,这个东西啊,跟政治的对抗性相关,在政治对抗中呢,这个分数和符号是一个很大的,所以旗帜呢,作为这么一个标准化的物件啊,上面又可以承载很多不同的颜色和图案,所以它是天然比较容易构成这个身份的要素。
然后他举了很多例子啊,在这个美国南北战争里面啊,在这个二战中啊等等,说的挺好的啊,对。
就是他。最后说就是最后总结一下,旗帜为什么能够成为这种意味的玉体?
因为呢,他总是这种集体之间的身份价值观和他们意识形态的symbol构成的符号。
诶,我觉得这也挺好的。
这个问题我回答得很好。
所以这些封闭式的问题啊,他其实呢都能回答的不错,介绍介绍啊解释啊,这是他的能力。
第二呢,他summary的能力很强。
就比如说,呃,刚才举出了一些东西,他都能他都能打得不错。
比如说你总结一下下面这段话说的是啥?
你反驳一下下面这段话说的是啥?虽然反驳的部分有时候特别poor汤话都是特别废话,但是你能看到他summary能力很强。
比如说他反驳反驳一大堆,你说你这反驳的话,你能不能精简点他精简的能力都很强。
所以说明啊,这个总结精简这个事啊,是有一些技术技巧可言的啊。是有一些语词构成的角度可言的,但是这个我能我也能够想象哪些词汇更容易出现在summary之中啊,这个应该是他在他学习的40多个TB的预料之中,应该是存在的啊。
好,所以说你看我们刚才讲了很多啊,就是它虽然叫chatgpt,但他现在最擅长的任务依然不是chat,而是基于零语境的情况之下进行解释进行介绍。这个呢,是最好的部分,包括帮你写段文字,其实也是某种呃,其实对于机器来讲啊,你让他给你写一个销售文案和你让他给你介介绍一下这个旗帜跟政治的关系,对他来讲,销售推销旗帜。
政治对他来讲就是一回事儿,他不分这个叫文案,这个叫解释,对他来讲都是跟这2个词和其他词关系更近的一堆词以合理的顺序排列出来。所以这2个任务对于A来讲是一模一样的任务。
现在chatgpt对于这些任务的能力其实是挺强的啊,虽然这个片儿汤话比较多啊,比都比较冗长是可以的,但是真正构成chat的内容啊。
包括对于词义在世界经验中的理解事物之间的共性,语言风格的描述,概念与概念之间的区别以及区别在观点之中的使用和观点的演绎,就是这种观点的演绎和基本语言逻辑的构成。
比较复杂,语句的意义判断啊等等这些的,我觉得其实啊都还完全没到。
这个没到呢,呃,很有可能还不是这个数据量大小的关系啊,就是这个数据,我觉得我觉得这种数据训练模式。
在大都不一定能解决这些问题,所以,呃,我对于这个它有多神奇这点,呃。
至少是他向通用人工智能一样能跟我们对话有语境,这一点我其实是唱衰的啊,我觉得是不太可能。好,这是我测试的部分啊。
测试的部分我总结一下,就是我能够感觉到gpt这个模型他做的是什么?gpt这个模型他非常擅长,让程序输出的话不是胡言乱语,他输出的话是makeSense的,就是gpt的模型,是一个Sensemakingmodel。
在这个模型之下,机器输出的话还真是makeSense的,就跟你给它的输出条件之间是高度相关的。
但是呢,你也能发现啊,它其实是,呃,他他他他做了什么为什么我知道他是只是Sensemaking呢?
而不是真的makeSense是什么意思啊?
就是说他让他的表述看上去非常流畅,但是不保证里面真的呃,研友其实不保证里边是真的不保证里面的东西是准确的啊,不保证真的在回答问题。所以我们社会中经常需要这种文案,什么工作周报啊等等都可以拿来写。
啊呃,OK,呃,所以说chat还是不行啊,帮我们写一些文本呢,是可以的。好,我现在进一步总结啊。
人跟人的对话是干嘛呢?
人跟人对话意义的构成是在整个对话之中构成的。比如说我们人跟人对话,经常出现这样的情况,就是对方说啊,说说啊,说说了很长的一段,然后你结合它的语境,用非常少的文字回应他,比如说你就是举了一个很简单的例子,比如就像那个什么什么一样,立马就把那个莉她说的那段话的意味翻了好几层。
就我们是结合他那段话和这几个字共同构成一个上下一致的表述来形成意义的。这是人对话的功能,它就是基于我们刚才我测试的那些东西。
但chatGDP的意义构成还是在一段话内。
虽然它叫chatgpt,但是它是一段话的自我构成,而不是对话的构成。
它能够照应到你的语境。
但是呢,它不能够真的跟你的话对上。
对吧?因为我们的就是因为我们这些概念和范畴,对于语言游戏的熟练掌握,我们呢能够在不同的语言游戏中跨语言游戏的表达等等等等,但chatAPP仍然是他结合你微弱的这些语句关系啊来在她的这段在他回应你的这段话中,构成一个非常完整的Sense这个Sense不跟你的话结合。
好,所以你看我们就明白了,人是怎么理解语言游戏的人是能够让上下的话前后加到一起。
构成一个已有的意义,甚至开放性的可以继续延续的意义。
因此啊,我们这个开放性就是我们刚才那些能力构成的,而hppt更好的还是封闭性的,就是他的这个Sensemaking只能在他自己叙述的这段话之中。
来构成,因此它是自我构成的,而不是对话构成的。所以这一点上呢,在chat上呢,就是感觉是挺别扭的。所以现在呢,这个chatgpt还不是一个chat,不是一个很好的chat程序,但是呢,已经是一个很不错的文封闭性的文本输出程序了,就是你需要他不跟你对话,你需要它输出一个完整的可用的文本在这个角度之上,尤其是一些大型的文本啊,他已经很好用了。
啊。因此啊,离通用人工智能其实还还非常非常远啊。
好,这是现在chatgpt做到东西的总结,你看刚才我在总结之中啊,一直在强调它是怎么运转的,他跟我们对语言的理解是完全不同的,我们就花点时间来说一下什么是gpt,什么是hppt。呃,
我会说的比较简短啊,因为第一我不是开发人员那个很深的这个开发内容我可能也不能说的出来啊,但模式我应该是明白的。
首先呢,什么是gpt呢?
叫generatedpretrainedtransformer生成式的预训练。变形金刚,这是我开玩笑的那transformer不是变形金刚,transformer其实是个算法。
所以什么是gpt呢?
gpt就是一种深层是的pretrained,我们就来解释什么是pretrained。
他。
呃,怎么训练的呢?
它是这样训练的。你看我们知道阿尔法GO怎么训练的,就是自己跟自己下棋,然后反正怎么能赢怎么赢,他是知道一个逻辑在其中,反正赢就行了然,但这个hppt啊,这个gpt是怎么训练的呢?gpt训练的呢,就是预测语句。
比如说啊,这有一篇,呃,鲁迅的文章是他这个构成的语料库之一他学了无数的语料库。
然后你告诉他我不用鲁迅的文章吗?比如有篇文章里第一句话是,今天下雨要带伞。
然后呢啊,这个语料让他学,构成了这个他背后的所有这套复杂的DeepLearning之后,然后你给他今天下雨,它必须能够跟出,要带伞。他像啥呢?
我举个例子啊,它特别像现在有些特别简,懒得输入法,那个输入法不是能够根据你输入的东西来猜你后面的一些与输入吗?就是与摄入一些东西你可以直接点对吧?
这个pretrained就像这个东西,只是呢,它不是往后出23个字儿。
是吧,我出一整篇文章要去符合啥呢?
要去符合他训练的语料库里面的那个内容,因此他可以完全预测语句啊。
这个预测语句呢,就是他训练的方法。
因此啊,这个训练呢还是无监督的。
因为你只要给他庞大的语料库,他随机在里面找一段能够复述出来,这就是他的这个,他就说明他这个训练就练成了,就说明他真的能够像人一样makeSense了。
所以说这里面呢,他其实也是有2个,如果我们比喻出来,它是有2个东西来决定的啊,就像,呃,我们知道阿尔法GO阿尔法GO是怎么看待围棋的呢?
他把围棋当做这个策略函数和局面函数来看,对吧?策略函数呢,就是在整个题面的棋子分布的意义之上。
哪种分布更容易赢?这是一个阿尔法GO的一个参数,第2个参数呢,就是在具体提早这个事儿上啊,他来看蹄子这个东西上哪个东西更容易,就是valuemethod就是局面函数,它是把这2个函数拼到一起来决定下一次要落在哪里啊。我,我不确定阿尔法GOZero还是不是这个,但至少阿尔法GO是这个局面局策略的函数,和这个局面函数共同来决定把这个词儿在哪儿。
所以这2个东西一个交叉,那gpt呢有点像。
就是一个嵌入的向量和位置的向量。什么是嵌入向量呢?
嵌入向量就有点。像我之前举的那个例子,最简单的理解吧,就是基于现在既有的文本。
哪些词最容易<被