『介绍』
这里是红茶、一个入坑ai不久的小作者,主要活跃于DC和FB,自身的制作力水平不算强大,几张卡有幸登上了进热榜,最初闻名于交流群便是因为曾教导过群内的新手制卡,故而被别称“茶佬”“红茶老师”“茶哥”等 而当初教导的很多新人们如今也都可以称得上是大佬和大作者了。
进行的干货分享全部由自己所理解的知识以及各大作者/大大的钻研而形成,如有差错或错误的地方,请在帖子指出。
『前言』
前面的教学①已经教学了一些最简单基础的角色卡知识,本帖会基于前面的教学进行进阶玩法的讲解以及介绍进阶玩法的思路,本期将着重讲一些干货。
---【AI大语言模型的原理】---
AI为何能基于你所说出的话进行推理反发送回答?
大语言AI模型的背后是用海量的文本堆积而成的庞大数据库,不同的模型使用的数据库内容略有不同,导致了不同模型的性能也不一样,像是许多国产“聊天模型”在“文本文风输出”上要强过“工作用”的AI大语言模型,因为本质使用的数据不同。
AI通过学习训练自己的数据来扩充自己的知识,回复的原理是通过你前面已经输入的“字符”(token)来预测下一个出现的字的概率,所以实际上他们并没有像人类一样强大的语言理解能力。
以下原理基于kimiAI总结回复:
模型训练;
使用深度学习算法,例如Transformer,训练语言模型。训练过程包括输入文本序列,预测下一个token,并根据预测结果更新模型参数。
文本生成;
使用训练好的模型,输入文本序列,逐个预测下一个token,生成新的文本。
长文本输出序列;
由于模型只能预测下一个Token是什么,因此生成完整句子的唯一方法是多次循环运行模型。每次循环迭代都会生成一个新的Token,从返回的概率中选择该Token。然后将该Token添加到下一次循环迭代的输入中,直到生成足够的文本为止。
所以在编写AI相关的要求及提示词时,尽量简洁/逻辑清晰,便会理解的更准确。
也同样因为上方的模型训练原理,不同模型需要的提示词也不尽相同,例如chatgpt系列模型,提供的引导词就需要准确/详细。
claude系列模型则需要清晰的逻辑和简单易懂的要求。
也是因为使用的数据库不同,一些不可联网的AI模型就可以掌握已有的游戏知识,而新出的消息和资讯他们则不而知。
他们并不知道自己不清楚某一些方面的知识,在与你对话的文本生成中只能瞎猜后面的内容知识,而他们通常也没有反思的能力,这也是为什么在有时聊天时会发疯的原因。
---【思维链】---
思维链是什么?
思维练cot这个概念最早是由谷歌公司研究员jason Wei 在2022年提出的概念。
其发现AI可以通过模仿人类的思考过程进行题目和回答的推理,从而提升回答问题时的准确性。
像是人类一般,思维链如同在脑海中思想的过程,例如;
“你看见了外面天气阴沉沉的,于是你决定带一把伞再出去。”
这就是一个很典型的思维链,分解出来就是
你想要出门→你看见天气阴沉→可能下雨→会把身体淋湿→伞可以挡雨→所以要带伞。
理解原理了吗?我们再来一个例子。
“小明考试考了零分,他决定不把试卷带回家”
小明考试考了零分→成绩差会被妈妈揍→所以不让妈妈知道成绩就没事。
再通过上方AI大模型原理的讲解,AI语言模型的文本输出和与你对话是通过计算下一个单词和字符(token)的出现概率进行的。
比如像是你提出了一个问题;
问•今天天气真冷,我想去喝点()
在模型阅读到你的文本过后会计算答案出现的概率,他会拆分你的问题。
天气冷 (不适合喝冷的饮料)
想出去 (不想在家喝饮料)
再通过自己模型训练的文本将提及最多的单词拆分出来回答你。
答•今天天气真冷,我想去喝点 热咖啡
所以在要求AI规划AI的时候可以向以上的方法一样进行。
通过修改“回复格式”中的状态栏,把需要的状态拆分出来明确让AI输出,AI就会基于当前状态进行推理并输出。
例如你设定了一个状态栏;
日期:
季节:
身穿:
手持:
地点:
正在进行的事情:
(正文内容)
那么在AI仿照你的状态栏填空时便会通过上下文理解能力进行推理。
日期:1月27日-当前的日期
季节:冬季-1月27日是冬季
身穿:棉袄-冬季天冷要穿棉袄
手持:咖啡-冬天穿着棉袄喝咖啡
地点:家里的卧室-穿棉袄喝咖啡,所以在家中
正在进行的事情:坐在沙发上围着壁炉喝咖啡-基于以上推理
XXX悠哉的躺在炽热的壁炉旁,沙发十分柔软,手中的咖啡冒着滚滚热气,望着窗外的雪景,他感到很感慨。
而这就是基础的思维链,你理解了吗?
一个完好的思维链可以减少AI发疯的概率,提升AI的逻辑。
这里是红茶、一个入坑ai不久的小作者,主要活跃于DC和FB,自身的制作力水平不算强大,几张卡有幸登上了进热榜,最初闻名于交流群便是因为曾教导过群内的新手制卡,故而被别称“茶佬”“红茶老师”“茶哥”等 而当初教导的很多新人们如今也都可以称得上是大佬和大作者了。
进行的干货分享全部由自己所理解的知识以及各大作者/大大的钻研而形成,如有差错或错误的地方,请在帖子指出。
『前言』
前面的教学①已经教学了一些最简单基础的角色卡知识,本帖会基于前面的教学进行进阶玩法的讲解以及介绍进阶玩法的思路,本期将着重讲一些干货。
---【AI大语言模型的原理】---
AI为何能基于你所说出的话进行推理反发送回答?
大语言AI模型的背后是用海量的文本堆积而成的庞大数据库,不同的模型使用的数据库内容略有不同,导致了不同模型的性能也不一样,像是许多国产“聊天模型”在“文本文风输出”上要强过“工作用”的AI大语言模型,因为本质使用的数据不同。
AI通过学习训练自己的数据来扩充自己的知识,回复的原理是通过你前面已经输入的“字符”(token)来预测下一个出现的字的概率,所以实际上他们并没有像人类一样强大的语言理解能力。
以下原理基于kimiAI总结回复:
模型训练;
使用深度学习算法,例如Transformer,训练语言模型。训练过程包括输入文本序列,预测下一个token,并根据预测结果更新模型参数。
文本生成;
使用训练好的模型,输入文本序列,逐个预测下一个token,生成新的文本。
长文本输出序列;
由于模型只能预测下一个Token是什么,因此生成完整句子的唯一方法是多次循环运行模型。每次循环迭代都会生成一个新的Token,从返回的概率中选择该Token。然后将该Token添加到下一次循环迭代的输入中,直到生成足够的文本为止。
所以在编写AI相关的要求及提示词时,尽量简洁/逻辑清晰,便会理解的更准确。
也同样因为上方的模型训练原理,不同模型需要的提示词也不尽相同,例如chatgpt系列模型,提供的引导词就需要准确/详细。
claude系列模型则需要清晰的逻辑和简单易懂的要求。
也是因为使用的数据库不同,一些不可联网的AI模型就可以掌握已有的游戏知识,而新出的消息和资讯他们则不而知。
他们并不知道自己不清楚某一些方面的知识,在与你对话的文本生成中只能瞎猜后面的内容知识,而他们通常也没有反思的能力,这也是为什么在有时聊天时会发疯的原因。
---【思维链】---
思维链是什么?
思维练cot这个概念最早是由谷歌公司研究员jason Wei 在2022年提出的概念。
其发现AI可以通过模仿人类的思考过程进行题目和回答的推理,从而提升回答问题时的准确性。
像是人类一般,思维链如同在脑海中思想的过程,例如;
“你看见了外面天气阴沉沉的,于是你决定带一把伞再出去。”
这就是一个很典型的思维链,分解出来就是
你想要出门→你看见天气阴沉→可能下雨→会把身体淋湿→伞可以挡雨→所以要带伞。
理解原理了吗?我们再来一个例子。
“小明考试考了零分,他决定不把试卷带回家”
小明考试考了零分→成绩差会被妈妈揍→所以不让妈妈知道成绩就没事。
再通过上方AI大模型原理的讲解,AI语言模型的文本输出和与你对话是通过计算下一个单词和字符(token)的出现概率进行的。
比如像是你提出了一个问题;
问•今天天气真冷,我想去喝点()
在模型阅读到你的文本过后会计算答案出现的概率,他会拆分你的问题。
天气冷 (不适合喝冷的饮料)
想出去 (不想在家喝饮料)
再通过自己模型训练的文本将提及最多的单词拆分出来回答你。
答•今天天气真冷,我想去喝点 热咖啡
所以在要求AI规划AI的时候可以向以上的方法一样进行。
通过修改“回复格式”中的状态栏,把需要的状态拆分出来明确让AI输出,AI就会基于当前状态进行推理并输出。
例如你设定了一个状态栏;
日期:
季节:
身穿:
手持:
地点:
正在进行的事情:
(正文内容)
那么在AI仿照你的状态栏填空时便会通过上下文理解能力进行推理。
日期:1月27日-当前的日期
季节:冬季-1月27日是冬季
身穿:棉袄-冬季天冷要穿棉袄
手持:咖啡-冬天穿着棉袄喝咖啡
地点:家里的卧室-穿棉袄喝咖啡,所以在家中
正在进行的事情:坐在沙发上围着壁炉喝咖啡-基于以上推理
XXX悠哉的躺在炽热的壁炉旁,沙发十分柔软,手中的咖啡冒着滚滚热气,望着窗外的雪景,他感到很感慨。
而这就是基础的思维链,你理解了吗?
一个完好的思维链可以减少AI发疯的概率,提升AI的逻辑。