编辑:晓霖
聪明生产力
OpenAI Prompt Engineering
OpenAI 发布官方的 Prompt engineering 文档,分享了利用 GPT 获取更优结果的六个策略。
一、撰写清晰的指令: 模型对你想要的东西猜测得越少,输出好答案的可能性就越大。
二、提供参考文本: 提供参考文本可以减少捏造的答案。
三、将复杂任务拆分为简单的子任务: 复杂的任务往往比简单的任务更容易出错;将复杂任务重新定义为更简单任务的工作流后,早期任务的输出可作为后期任务的输入。
四、给模型“思考”时间: 模型在试图立即回答推理问题时更容易犯错,“思维链”可以帮助模型更可靠地推理出正确答案。
五、使用外部工具: 通过向模型提供其他工具的输出来弥补模型的弱点,例如文本检索系统(RAG)、代码解释器、模型特定功能等。
六、系统地测试和调整: 在某些情况下,对提示的修改会在一些孤立的示例上获得更好的性能,但在更具代表性的示例集上会导致更差的整体性能。
每个策略下都列出了具体技巧以及示例,你还可以组合使用这些策略获得更好的回答效果。一般来说,如果一个任务在某个模型上处理失败,通常值得用更强的模型再试一次。
文档地址:https://platform.openai.com/docs/guides/prompt-engineering
更多案例:https://platform.openai.com/examples
大模型动态
Mistral AI 开源首个 MoE 大模型
近期,Mistral AI 开源了基于 MoE(Mixture-of-Experts,混合专家)架构的 Mixtral 8x7B 模型,性能达到 Llama 2 70B 和 GPT-3.5 的水平,处理输入和生成输出的速度和成本则相当于 12.9B 的模型。
Mixture-of-Experts (MoE) 是一种深度学习架构,在1991年的论文《Adaptive Mixture of Local Experts》首次被提出,核心思想是将一个大型问题分解为许多较小的子问题,并由一组“专家”网络各自解决这些子问题。每个“专家”是一个较小的模型,专门处理特定类型的输入数据或任务。MoE的一个重要组件是门控网络(Gating Network),负责决定哪个专家应该处理当前的输入数据。这个决策基于输入数据的特性,目的是将数据发送到最能有效处理该任务的专家。
通常,模型规模的拓展会显著增加训练成本。MoE 模型具有优异的可扩展性,可以根据任务需求灵活地调整专家的数量和类型,使其适应不同的应用场景。由于各个专家可以独立操作,MoE 模型特别适合并行处理,大大加快训练和推理速度。即使增加专家数量扩展成更大的模型,在处理更大的数据集和更复杂的任务时,MoE 模型不会显著增加每个输入的处理时间。更重要的是,并非所有专家都需要参与处理每个输入,MoE 模型在处理大规模和复杂问题时可以更有效地利用资源,达到节省计算资源的效果。
若想进一步了解MoE的构建模块、训练方式、推理权衡等内容,Hugging Face 的博客文章《Mixture of Experts Explained》不容错过!
Mixtral 8x7B 模型是具有开放权重的高质量稀疏专家混合模型(SMoE),是一个 decoder-only 的模型,由8组“专家”组成,在每个 token 的推理过程中只使用2个“专家”,并将其输出累加组合。模型总参数量为 46.7B,但每个 token 只使用其中 12.9B 参数,即实际执行速度和所需的成本相当于一个 12.9B 的模型。模型上下文窗口为 32k,可处理英语、法语、意大利语、德语和西班牙语等多种语言,在代码生成方面表现优异。Mixtral 使用公开数据进行预训练。
Mixtral 8x7B 模型遵循 Apache 2.0 许可,可免费商用。API 分为三个版本:Mistral-tiny 对应模型是 Mistral 7B Instruct;Mistral-small 对应模型是 Mixtral 8×7B;Mistral-medium 对应的模型尚未公布,官方透露其在 MT- Bench 上的得分为 8.3 分。
Mistral AI官网介绍:https://mistral.ai/news/mixtral-of-experts
Hugging Face的博客文章:https://huggingface.co/blog/moe
NeurIPS 2023 获奖论文出炉型
NeurIPS(Neural Information Processing Systems,神经信息处理系统大会)是全球最著名的 AI 学术会议之一,通常在每年 12 月举办,讨论深度学习、计算机视觉、大规模机器学习、学习理论、优化、稀疏理论等众多细分领域。NeurIPS与ICML、ICLR并称机器学习领域国际三大顶会,代表人工智能领域研究最高水平。
NeurIPS 官方公布了 2023 年度的获奖论文,包括时间检验奖、两篇杰出论文、两篇杰出论文(亚军)、一个杰出数据集和一个杰出基准,其中大部分论文都是围绕大型语言模型(LLM)展开的工作。
Compositionality
这篇十年前的论文引入了开创性的词嵌入技术 word2vec,展示了从大量非结构化文本中学习的能力,推动了自然语言处理新时代的到来。论文作者是当时仍在谷歌的 Tomas Mikolov、Ilya Sutskever、Kai Chen、Greg Corrado、Jeffrey Dean,论文被引量超过 4 万次。
https://arxiv.org/abs/1310.4546
https://arxiv.org/abs/2305.08846
https://arxiv.org/abs/2304.15004
https://arxiv.org/abs/2305.16264
Model(斯坦福大学、 CZ Biohub)
https://arxiv.org/abs/2305.18290
Emulation
https://arxiv.org/abs/2306.08754
项目地址:https://leap-stc.github.io/ClimSim/README.html
Models
论文:https://arxiv.org/abs/2306.11698
基准测试:https://decodingtrust.github.io
AI时代洞见
对话:AI如何成为促进个人发展的强大工具
领英(LinkedIn)创始人雷德· 霍夫曼(Reid Hoffman)对话多位人工智能领域专家,深入探讨了人工智能可以如何成为促进个人发展的强大工具,为人们提供独特视角、提升协作、增进人际关系和实现远大目标。
https://www.36kr.com/p/2523219973449217