主要抽象了两种本质范式已替代了过去零零碎碎的各种场景定制范式 “会话”类比人类社会中的各种交流形式不论是一对多的大众传媒还是一对一的社交活动都在会话的场景可以得到体现而会话的核心场景就是信息量不产生在一方总有一个相互的信息交互过程这代表了有很多隐含的社会约定俗成的规则在“会话”范式中。我认为可能“协作”更像是这种范式的终极形态交互双方相互填补信息空缺综合输出一份共创结果。模型规模的扩大对于语言深层的理解逐步在强化但是至少从目前对于GP
T的使用过程可以发现其实目前的GPT还 阿联酋 WhatsApp 号码 没有办法完全自主的理解这种范式。 什么是语言中更高更深层的东西对于会话来说就目前的一些实践经验来看我觉得其实这个问题可以分为两部分 会话成立的前提这一点很容易被忽视我发现对于GPT来说如果不给它指明GPT本身也不会关注这个问题。例如【会话的主客体关系】【会话主导角色】【谁在填充信息量】【做出评价与总结】等等。

这一部分的信息必须在few shot或者后续纠错中补充给gptgpt才能理解或者以精调的方式激发这方面的能力表现。从这个意义上来说可以再次证明大模型对于设计者意志的依赖。 语言文本中蕴含的深层信息大概语言模型的发展也是按照这种方式从最开始的形式(词性句法成分)走向含义(语义)到现在的会话情感对于会话中的显性情感GPT已经可以完全理解但是对于一些隐性情感及回应的情感态度选择这块语言模型的潜力还有待被进一步挖掘。 关于“对话”和“写作”本质我的理解打算在下一篇关于虚拟人的大模型实践里详细分享一下这里就不细谈了。 AI设计变革——大模型的AI设计方法 或者我让大模型理解一下更抽象的内容比如什么叫做“协作”。