了解,首先 MCube 会依据模板缓存形态判别能否须要网络失掉最新模板,当失掉到模板后启动模板加载,加载阶段会将产物转换为视图树的结构,转换成功后将经过表白式引擎解析表白式并取得正确的值,经过事情解析引擎解析用户自定义事情并成功事情的绑定,成功解析赋值以及事情绑定后启动视图的渲染,最终将
构想一下,你在和一个智能助手聊天,你须要说出十清楚晰和详细的要求,才干失掉你想要的答案。Prompt Engineering 就是设计和优化与AI对话的“揭示词”或“指令”,让AI能准确了解并提供有用的回应。
Prompt Engineering 关键包括以下几个方面
1.明白指标:宿愿AI成功什么义务。例如:写一篇文章,回答一个疑问,启动一次性对话?
2.设计揭示词:设计出详细的揭示词,揭示词应该尽量繁复明了,蕴含一切必要的消息。比如:“写一篇关于环境包全关键性的文章。”
3.优化和测试:一开局的揭示词或许并不完美,所以须要一直调整和优化,测试不同的表白方式,尝试找到最好的结果。
4.处置异常状况:有时刻,AI或许会给出异常的回答,还须要预测这些异常状况,并设计出应答战略。
了解,首先 MCube 会依据模板缓存形态判别能否须要网络失掉最新模板,当失掉到模板后启动模板加载,加载阶段会将产物转换为视图树的结构,转换成功后将经过表白式引擎解析表白式并取得正确的值,经过事情解析引擎解析用户自定义事情并成功事情的绑定,成功解析赋值以及事情绑定后启动视图的渲染,最终将
1)早期阶段(2017年前)
2)初步探求(2017-2018)
3)极速开展(2019-2020)
4)成熟阶段(2020-2021)
5)技术手腕演化(2021-2023)
6)现代阶段(2024及)
了解,首先 MCube 会依据模板缓存形态判别能否须要网络失掉最新模板,当失掉到模板后启动模板加载,加载阶段会将产物转换为视图树的结构,转换成功后将经过表白式引擎解析表白式并取得正确的值,经过事情解析引擎解析用户自定义事情并成功事情的绑定,成功解析赋值以及事情绑定后启动视图的渲染,最终将
Zero-shot和Few-shot是两种最基础的揭示词工程,关键留意Prompt的格局(比如分段落,用序号的方式展现你想表白内容的逻辑顺序等)和讲述内容就可以,同时依据对输入结果的需求来调整参数。
① Zero-shot Prompting:间接给出义务和指标,留意prompt格局和参数调整。
② Few-shot Prompting:和Zero-shot相比就是多了几个“shots”,给予模型大批样本启动成功高低文学习;留意范例的筛选对模型体现很关键,不失当的范例选用或许造成模型学习到不准确或有成见的消息。
小工具:可以提供prompt模版,依据选用不同的模版,帮你设计基础的prompt内容。
基础参数:
temperature:控制生成文本的随机性,范围到;较低值使输入更确定,较高值参与随机性和多样性max_tokens:限度生成的最大标志数,一个标志大是一个单词或标点符号top_p:控制基于累积概率的采样,较低值会使生成的文本愈加确定(例如:top_p 象征着只会从概率最高的前的标志中启动采样)n:生成回复个数,自动个stopNone:不设置中止条件presence_penalty:设置为不处罚重复内容,较高值会激励模型生成与高低文中已有内容不同新内容frequency_penalty:设置为不处罚频繁发生的内容,较高值会缩小模型生成重复词语的或许性
推理与逻辑技术能使 LLM 愈加深化与复杂的逻辑思索。如:Chain-of-Thought (CoT)、Automatic Chain-of-Thought (Auto-CoT)、Self-Consistency、Logical CoT等,都旨在促成模型以更结构化和逻辑性的方式处置消息,从而提高疑问解決的准确性和深度。
原理:为了克制LLM在处置复杂推理义务方面的限度,Wei et al. (2022) ()提出了CoT,经过引入一种不凡的揭示战略,促成模型启动延续和逐渐的思索环节,连接思索技术的关键奉献在于能够更有效地激起LLM产出结构化且深化思索的回答。
示例说明:规范揭示中,模型间接给出答案,而没有解释或展现其推理环节。在CoT揭示中,模型不只给出答案,还详细展现了其推理环节。CoT经过在经过在揭示中参与详细的推理步骤,疏导模型逐渐处置疑问。适用于须要复杂推理和多步骤计算的义务。
原理:CoT是一种手动的方式,环节耗时且效率低下,因此 Zhang et al. (2022) ()提出了 Auto-CoT 技術。经过智能生成“逐渐思索”式的揭示,协助大模型成功推理链。经过多样化的样本生成来优化全体的稳固性,能够对多种疑问发生多个共同的推理链,并将它们组分解一个终极范例汇合。这种智能化和多样化的样本生成方式有效地降落了出错率,优化了少样本学习的效率,并防止了手工构建CoT的繁琐上班。
示例说明:左侧展现了Auto-Cot的四个步骤(示例构建、聚类、示例选用和高低文推理)。首先,经过聚类算法将疑问示例分组,而后从每个组当选用具有代表性的示例,构建一个蕴含详细解答的示例集,最后,经过在高低文中提供这些示例,协助LLM启动推理并得出正确答案。
原理:Wang et al. (2022)()提出了一种新型解码战略,指标在于取代链式思索揭示中经常使用的天真贪心解码。从言语模型的decoder中提取多条不同的推理门路,从而生成多种或许的推理链,参与找到正确答案的或许性。
示例说明:不同于繁难CoT的贪心解码方式,该技术先生成多个不同的推理门路,不同门路或许会得出不同答案,而后经过对一切生成的门路启动汇总,选用最分歧的答案为最终输入。第一步:模型生成多个推理门路,失掉不同的答案($18、$26、$18) 第二步:汇总推理门路,选用最分歧的答案($18)
原理:Zhao et al. (2023)()提出的 LogiCoT,与之前的逐渐推理方法 (例如CoT) 相比,引入了一个全新的框架。该框架吸取了symbolic logic的精髓,以一种愈加结构化和条理明晰的方式来增强推理环节。驳回了反证法这一战略,经过证实某一推理步骤若造成矛盾则该推理步骤失误,从而来核对和纠正模型发生的推理步骤。
图例说明:上方是CoT,推理环节是线性的,每一步都依赖于前一步,下方是LoT,推理环节是树状的,可以在某些步骤上启动分支,每个节点仍代表一个推理步骤,但节点之间有更多的衔接方式,构成了一个分支结构。这种方法准许探求多个或许的推理门路。图中虚线框标出了某些分支节点,示意这些节点可以在不同的门路上启动组合和选用。因此LoT方法能更灵敏地处置复杂疑问,准许同时思索多个推理门路,从而或许失掉更片面和准确的结果。
原理:为了克制LLM依赖容易含糊且或许带有成见的人造言语的限度,Hu et al. (2023)()提出了 CoS。这种方法不适用人造言语,而是驳回简化的符号作为揭示,长处在于使揭示愈加明晰繁复,提高模型处置空间相关疑问才干,同时运作原理更易使人了解。
示例说明:下图展现了CoT和CoS在处置一个从一堆砖块中取出特定砖块的疑问时的体现。CoT输入A, E, D,结果失误,没有遵照正确移出顺序。CoS经过将Prompt的结构从文字转换为符号(如下):
1.B/A/D/E/C
模型输入:C, E, D
缩小幻觉现象(幻觉是指你从大言语模型中失掉失误的结果,由于大言语模型关键基于互联网数据启动训练,其中或许存在不分歧的消息,过期的消息和误导的消息)是LLM的一种应战,技术如 RAG、ReAct Prompting、Chain-of-Verification (CoVe)等,都是为了缩小LLM发生无依据或许不准确输入的状况。这些方法经过联合外部消息检索、增强模型的自我审核才干或引入额外的验证步骤来成功。
原理:RAG的外围为“检索+生成”,前者关键是应用向量数据库的高效存储和检索才干,召回指标知识;后者则是应用大模型和Prompt工程,将召回的知识正当应用,生成指标答案。
流程:完整的RAG运行流程关键蕴含两个阶段。
原理:Dhuliawala et al. (2023) ()提出了一种称为 CoVe 的方法,该方法关键有四个步骤:初步答案、布局验证疑问以测验上班、独立解答这些疑问、依据验证结果来修正初步答案。该方法经过精心设计验证疑问,模型能够辨识自身的失误并启动修正,从而清楚提高了准确率。
示例说明:下图表展现了一个查问和验证环节,目的是找出一些在纽约市出世的政治家。整个环节分为四个步骤,经过验证初步消息来确保最终照应的准确性。
原理:Zhou et al. (2022)()提出的APE技术,其打破了手动和固定揭示的限度,能够针对特定义务被动生成并选用输入有效的揭示。先剖析用户输入,设计一系列候选指令,再透过强化学习选用最优揭示,并能顺应不同情形。
示例说明:下图展现了APE技术的几个步骤。
以下四种Prompt Engineering手腕团体以为比拟无心思,因此做简明引见。
原理:CoC 技术是Li et al. (2023)()提出的,经过编程强化模型在逻辑与语义义务上的推理才干,将语义义务转化为灵敏的伪代码。CoT关键用于处置须要逻辑推理、疑问分解和逐渐处置的义务,如逻辑推理疑问、文本剖析等;CoC则专一于编程义务,经过火步疏导模型生成代码处置编程疑问。
示例说明:下图展现了应用三种不同的方法来回答一个疑问:“我去过多少个国度?我去过孟买、伦敦、华盛顿、大峡谷、巴尔的摩,等等。”
总结:间接回答法没有解释环节,容易出错。思绪链法逐渐解释,但仍或许出错。代码链法经过编程逻辑,确保了答案的准确性,在三种方法中体现最好。
原理:传统CoT疏忽了从失误中学习的总要环节,Chia et al. (2023)()提出CCoT技术。这种技术经过同时提供正确和失误的推理示例来要到模型。但是该种技术还是面临一些应战,即如何为不提供疑问智能生成对比示例。
示例说明:下图展现了三种揭示方法在答双数学识题时的体现。
1)规范揭示:Prompt中回答间接给出答案,但没有解释环节,造成第二个疑问答案:37.5%,回答失误。
2)思想链(CoT):Prompt中参与了详细的解释环节,使得模型在输入修复牙齿比例疑问中能更准确地思索,但是答案为36.67%,还是失误。
3)对比思想链(Contrastive CoT):Prompt中参与了正确答案和失误答案的详细解释说明。最终输入答案50%正确。Contrastive CoT 不只提供正确的解释,还展现了失误的解释,协助了解和验证答案的正确性。
原理:Li et al. (2023) ()提出了EmotionPrompt 技术。经过在揭示中参与情感词汇或情感高低文来疏导模型更好地理解和回运行户的情感需求。识别情感需求:识别出宿愿模型生成的照应中蕴含的情感类型(如开心、悲伤、愤怒等)。构建情感揭示词:在原始揭示中参与情感词汇或高低文,以疏导模型生成合乎预期情感的照应。测试和调整:生成照应后依据实践成果启动测试和调整,确保模型生成的内容合乎预期的情感。
示例说明:下图展现了不同类型的情感表白及其在不同通常框架下的分类和交叉相关。关键蕴含了三个通常框架:自我监控、社会认知通常和认知心情调理,并列出了每个框架下的详细情感表白句子(EP01-EP11)。经过这种分类方式,可以看出不同情感表白在不同通常框架和维度下的交叉相关和运行场景。这种分类有助于更好地理解和运行情感表白在不同情境中的作用。右侧展现了这些情感表白在不同社会效应和自尊维度下的分类:
1)社会效应(Social effect)蕴含:EP01, EP02, EP03, EP04, EP05, EP06(EP06是EP01, EP02, EP03的复合体)
2)自尊(Self-esteem)蕴含:EP07, EP08, EP09, EP10, EP11
3)备注:EP06 是EP01, EP02, 和EP03的复合体。
原理:由于LLM经常疏忽了人类思想方式和LLM思想方式间的差异,Deng et al. (2023)()提出了RaR技术。经过让LLM在揭示中从新表述和裁减疑问,从而优化模型对疑问的了解和回答准确性,改写后的疑问能够更明晰地传递语意,缩小疑问含糊性。
示例说明:RaR 关键分为两个步骤,经过对 prompt 了解和重述,言语模型可以更好地理解和回答疑问。
1)重述疑问:首先给定一个原始疑问,“取 Edgar Bob 中每个单词的最后一个字母并将它们衔接起来”。而后重述使其更明晰、更详细。重述后的疑问变成“你能识别并提取 Edgar Bob 中每个单词的最后一个字母,而后按它们发生的顺序将它们衔接起来吗?”
2)回答重述后的疑问:重述后的疑问是“你能识别并提取 Edgar Bob 中每个单词的最后一个字母,而后按它们发生的顺序将它们衔接起来吗?”回答为“Edgar Bob 中每个单词的最后一个字母是 r 和 b,按发生顺序衔接起来是 rb”。
了解,首先 MCube 会依据模板缓存形态判别能否须要网络失掉最新模板,当失掉到模板后启动模板加载,加载阶段会将产物转换为视图树的结构,转换成功后将经过表白式引擎解析表白式并取得正确的值,经过事情解析引擎解析用户自定义事情并成功事情的绑定,成功解析赋值以及事情绑定后启动视图的渲染,最终将
在京东物流的大件商品入库环节,采集人员须要依据产品制订的划分规范人工判别并录入商品件型。但是,件型保养失误解造成物流方面的支出损失、客户揭发及调账等疑问。为了处置这些疑问,咱们经过技术手腕对存量SKU启动件型异常识别,并在前置环节成功件型介绍,对新入库的SKU启动件型录入预警。件型的判别高度依赖于商品品类,但由于大局部SKU为外单商品,其品类保养关键依赖于商家和开售,超越40%的外单商品品类被归为“其余服务”。因此,咱们首先对这些品类启动修正,再基于修正后的数据开展异常识别和件型介绍。
随着大模型运行的宽泛遍及,针对第二阶段件型判别,咱们经过引入大模型对文本识别技术方案难以笼罩的SKU启动补充识别(优化笼罩率)。以下会尝试上述引见的几种基础Prompt Engineering手腕,对空调品类的商品启动件型判别,并对比几种揭示词工程在识别成果上的差异。
识别指标:经过通知大模型空调相关品类的件型判别规范,让大模型判别商品的件型。上方关键经过不同的揭示词工程手腕,来调整prompt以优化输入准确率。
样本说明:数据总共蕴含7个字段(goods_code:商品编码,goods_name:商品称号, item_third_cate_name:修正后品类,weight:重量(kg), big_goods:件型编码,big_goods_desc:件型中文,label:业务打标的正确件型(测验模型结果的label)。
测试代码:
基础GPT调用Demo:关键设定了模型的角色和义务,为了保障结果输入的稳固性,区分将参数 temperature设置为0,同时件型最长字符串不超越6个,因此设置max_tokens=6,仅输入一个结果,设置top_p=0.1。
def classify_product rules_text:try:client OpenAIapi_keyosenvironbase_urlosenvirondescription f# 设定模型的角色和义务system_message "你是物盛行业的一位专家,请基于规定和商品形容,仅输入该商品的件型,不要输入其余任何消息。"user_message ffresponse clientchatcompletionsmodelmessages{: : system_message}{: : user_message}temperature # temperature 控制生成文本的随机性,范围为0到1。较低的值使输入更确定和分歧,而较高的值参与随机性和多样性。max_tokens # 限度生成的最大标志数,一个标志大概是一个单词或标点符号。top_p # 数控制基于累积概率的采样,较低的 top_p 值会使生成的文本愈加确定,只会思索累积概率到达较低阈值的标志。n responsechoicesmessagecontentstrip Exception e: stre
Zero-shot:准确率44.44%:
prompt1 """件型的判别和商品的细分品类、商品起源和商品参数无关。细分分类为:1. 挂机空调:形容或型号中含“挂机空调”或“G”或“GW”。2. 柜机空调:形容或型号中含“柜机空调”或“L”或“LW”。3. 家用空调:形容中含“家用空调”或型号中含“KFR”。4. 中央空调/天花机/风管机/多联机/移动空调一体机:形容或称号中含“中央空调”、“天花机”、“风管机”、“多联机”或“移动空调一体机”。5. 其余类别空调:不合乎上述任何一个特定类型的空调。商品起源分为自营和外单两种,商品编码以“EMG”扫尾为外单,否则为自营。件型包括:超小件、小件、中件-半件、中件、大件-半件、大件、超大件-半件、超大件。件型规定如下:1. 自营挂机空调:- 匹数≤3p或型号≤72为中件-半件- 匹数>3p或型号>72为大件-半件2. 自营柜机空调:- 匹数≤2p或型号≤51为中件-半件- 2p<匹数≤3p或51<型号≤72为大件-半件- 匹数>3p或型号>72为超大件-半件3. 自营家用空调:- 形容含“大2p”或型号≤51为中件-半件- 形容含“大3p”或51<型号≤72为大件-半件- 型号>72为超大件-半件4. 自营及外单的家用中央空调、天花机、风管机、多联机及移动空调一体机:- 重量<15kg为超小件- 15kg≤重量<25kg为小件- 25kg≤重量<40kg为中件- 40kg≤重量<60kg为大件- 60kg≤重量<100kg为超大件5. 外单家用空调、挂机空调、柜机空调:- 匹数≤2p或型号≤51为中件-半件- 2p<匹数≤3p或51<型号≤72或形容中提到“大2p”为大件-半件- 匹数>3p或型号>72或形容中提到“大3p”为超大件-半件"""
Few-shots:在Zero-shot基础上加了两个示例说明,准确率55.56%。
prompt2 """...同prompt1举例:1. 编码:100885342,形容:酷风(Coolfree)中央空调一拖多多联机 MJZ-36T2/BP3DN1-CF4,重量:21,件型是:小件。2. 编码:100014630039,形容:COLMO AirNEXT空气服务器 3匹 AI智能空调新一级全直流变频空调立式柜机 KFR-72LW/CE2 线下同款,重量:21,件型是:超大件-半件。"""
Chain-of-Thought (CoT):和Few-shots的区别,将两个示例分步骤展现,向模型说明启动件型判别的逻辑顺序,准确率66.67%。
prompt3 """...同prompt1举例:1. 编码:100885342,形容:酷风(Coolfree)中央空调一拖多多联机 MJZ-36T2/BP3DN1-CF4,重量:21。- 第一步:判别商品起源。商品编码不以“EMG”扫尾,因此商品起源为自营。- 第二步:判别细分品类。形容中含有“中央空调”以及“多联机”,因此细分品类为中央空调。- 第三步:判别件型。重量为21kg,满足15≤重量<25,因此件型为小件。2. 编码:100014630039,形容:COLMO AirNEXT空气服务器 3匹 AI智能空调新一级全直流变频空调立式柜机 KFR-72LW/CE2 线下同款,重量:21。- 第一步:判别商品起源。商品编码不以“EMG”扫尾,因此商品起源为自营。- 第二步:判别细分品类。形容中含有“KFR”和“LW”,优先判别细分品类为柜机空调。- 第三步:判别件型。由于形容中含有“3匹”且型号为72,满足2p<匹数≤3p或51<型号≤72,因此件型为大件-半件。"""
Self-Consistency:照旧经常使用prompt2,但调整调用参数和解析逻辑,让模型启动屡次输入,取发生频率最高的结果为最终结果,准确率为66.67%。
randomdef classify_product_self_consistency rules_text:try:client OpenAIapi_keyosenvironbase_urlosenvirondescription fsystem_message "你是物盛行业的一位专家,请基于规定和商品形容,仅输入该商品的件型,不要输入其余任何消息。"user_message ff# 屡次恳求模型,失掉多个输入responses clientchatcompletionsmodelmessages{: : system_message}{: : user_message}temperaturemax_tokenstop_pn piece_type_options response responseschoices:piece_type_match researchr responsemessagecontent piece_type_match:piece_type piece_type_match piece_type piece_type_options:piece_type_optionsappendpiece_type:piece_type responsemessagecontent piece_type piece_type_options:piece_type_optionsappendpiece_type# 假设有多个不同的件型论断,前往一个随机的件型论断 piece_type_options : randomchoicepiece_type_optionselif piece_type_options: piece_type_options: "不可确定件型,请审核规定或商品形容。" Exception e: stre
本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载联系作者并注明出处:http://clwxseo.com/wangluoyouhua/7621.html