分类: AGI

  • 7B模型之最,Zephyr-7B为何备受瞩目?

    大家好,我想分享一个令人心动的消息,一个由HuggingFace H4团队打造的开源模型Zephyr-7B,以其非凡的性能在AI领域引发了一场轩然大波。这个只有70亿参数的模型,却以出乎意料的实力,击败了拥有700亿参数的巨头LLaMA2!更令人振奋的是,这款模型不仅能轻松在你的苹果电脑上运行,而且它是完全开源且免费的!

    Zephyr-7B,一股清新的西风

    Zephyr-7B的出现,正如它的名字一样,就像一股清新的西风在AI领域中吹拂。这是一个在Mistral-7B模型基础上,经过团队精心微调,使用直接偏好优化(DPO)在公开数据集上进行调整的结果。而这个Mistral-7B模型,是由被誉为“欧洲OpenAI”的Mistral AI打造的一个开源大模型。

    评估模型,Zephyr的优秀表现

    评估模型的性能,我们常用MT-Bench,这是一个评估模型处理多轮对话能力的基准测试,问题集涵盖写作、角色扮演、提取等8个类别。在此测试中,Zephyr-7B-alpha的MT-Bench平均得分为7.09,超越了Llama2-70B-Chat。

    而且,Zephyr并没有止步于此,H4团队推出了它的进化版,Zephyr-7B-beta。他们在GPT-4和Claude 2中提取对齐性,然后将其注入小模型中,开发出了使用蒸馏直接偏好优化(dDPO)用于小模型的方法。二代Zephyr,MT-Bench平均得分升高至7.34。在AlpacaEval上,Zephyr的胜率为90.6%,优于ChatGPT。

    用户反馈,Zephyr的热烈好评

    在接收到这个新闻的网友们中,对Zephyr的好评如潮。一项评分显示,Zephyr-7b-beta的Elo评分已经飙升至很高的水平,甚至超过了13B的模型。许多人纷纷表示,Zephyr的表现超出了他们的预期,他们对Zephyr给予了一致的好评。

    实力背书,Zephyr的高级RAG表现

    Llama Index(此前名为GPT Index)的联合创始人兼CEO Jerry Liu也对Zephyr进行了测试。他发现,Zephyr是目前唯一一个在高级RAG/agentic任务上表现良好的开源7B模型。数据也显示,Zephyr在高级RAG任务上的效果可以和GPT-3.5、Claude 2相抗衡。

    研发成本,Zephyr的经济性

    最后,我想特别提到的是,Zephyr的训练成本。按照研究团队的说法,微调这个模型只需要500美元,也就是在16个A100上跑8小时。这样的成本效益,无疑让Zephyr在AI模型的竞争中占据了更大的优势。

    总的来说,Zephyr-7B的出现,无疑为AI领域带来了一场革新。

  • 探索多语言的人工智能之旅:RWKV-5 World

    人工智能的力量正在日益扩大,其在各领域的应用也在不断深化。今天,让我们来了解一款名为RWKV-5 World的多语言文本生成模型,这款模型由BlinkDL公司开发,目前正在进行训练中。

    RWKV-5 World:一款跨越语言边界的模型

    RWKV-5 World是一款正在进行训练中的文本生成模型,其目标是在100多种世界语言(其中70%为英语,15%为多语言,15%为代码)上进行训练,这些语言数据来自于多个来源,包括EleutherAI的pile数据集,cerebras的SlimPajama-627B数据集,bigcode的starcoderdata数据集,以及oscar-corpus的OSCAR-2301数据集等。

    RWKV-5 World的模型特点

    RWKV-5 World模型的训练使用了RWKV-LM v4neo,这是一款由BlinkDL公司开发的领先的语言模型训练工具。在训练过程中,我们设定了”r2r4″作为测试参数。到目前为止,我们已经完成了两个版本的训练,第一个版本使用了0.59T的标记,第二个版本使用了1.12T的标记。

    RWKV-5 World的使用方法

    如果你想尝试RWKV-5 World模型,你需要使用rwkv pip包0.8.14+进行推理,你可以在PyPI上找到它。同时,我们也提供了在线演示,你可以在Hugging Face的网站上进行体验。如果你想了解更多关于RWKV-5 World模型的工作原理,你可以关注BlinkDL_AI的Twitter,或者访问我们的官方网站。

    RWKV-5 World的未来发展

    RWKV-5 World模型的训练仍在进行中,我们正在不断上传最新的训练进度至Hugging Face。想象一下,当我们使用更多的数据进行训练时,RWKV-5 World模型将会发生什么呢?这将是一个令人兴奋的旅程,让我们一起期待RWKV-5 World模型的未来发展吧!

    如果你对RWKV-5 World模型有任何问题或者建议,欢迎在下面的评论区留言,我们会尽快回复你。同时,如果你对这个博客有任何建议或者意见,也请随时告诉我们,我们期待你的反馈。

  • 越级的语言模型:Hugging Face的Zephyr 7B Alpha

    你是否曾经想过,人工智能能否与我们进行自如的对话,就像人与人交谈一样自然?欢迎你来到这个博客,今天,我们将要深入探讨一款名为Zephyr 7B Alpha的语言模型,这款语言模型由Hugging Face公司开发,它正在积极推动人工智能语言处理的边界。

    Zephyr 7B Alpha:一款全新的语言模型

    Zephyr 7B Alpha是一款强大的7B参数的GPT类模型,这款模型的主要语言是英语。它是基于mistralai/Mistral-7B-v0.1模型进行微调的,使用了一系列公开可用的、合成的数据集进行训练。它是Zephyr系列的第一个模型,专门为了提供帮助而训练。

    Zephyr 7B Alpha的模型源

    Zephyr 7B Alpha的源代码位于GitHub的Hugging Face仓库中,你可以在此浏览和学习。同时,Hugging Face也提供了一个在线演示,你可以在那里直接体验Zephyr 7B Alpha的能力。

    Zephyr 7B Alpha的应用与局限性

    Zephyr 7B Alpha的初始微调是基于UltraChat数据集的一个变体,该数据集包含了由ChatGPT生成的各种合成对话。然后,我们进一步使用Hugging Face的DPOTrainer在openbmb/UltraFeedback数据集上对模型进行了对齐。因此,你可以使用这个模型进行聊天,并可以在我们的在线演示中测试其能力。

    虽然Zephyr 7B Alpha是一个强大的模型,但也存在一些局限性。由于它没有使用RLHF等技术进行人工偏好对齐,或者像ChatGPT那样使用环路过滤响应进行部署,所以在某些情况下,模型可能会产生问题的输出。

    Zephyr 7B Alpha的训练和评估数据

    在训练过程中,我们使用了一系列的超参数,包括学习率、训练批次大小、评估批次大小、随机种子、分布式类型、设备数量、总训练批次大小、总评估批次大小、优化器类型、学习率调度器类型和学习率调度器预热比例等。在评估集上,Zephyr 7B Alpha表现出了优秀的性能。

    总结

    Zephyr 7B Alpha是一款强大的语言模型,它不仅拥有强大的参数,同时也利用了一系列先进的训练技术。虽然它还存在一些局限性,但我们相信,随着技术的进步,Zephyr 7B Alpha将会进一步提升其性能,为我们提供更多的帮助。让我们一起期待Zephyr 7B Alpha的未来吧!

    如果你对Zephyr 7B Alpha有更多的问题,欢迎在下面的评论区留言,我们会尽快回复你。同时,如果你对这个博客有任何的建议或者意见,也请随时告诉我们,我们期待你的反馈。

  • Zephyr 7B Alpha:打破边界的人工智能语言模型

    无论你是AI研究者,还是对人工智能技术有所热爱的普通人,都一定听说过Hugging Face,这家以人工智能为核心,致力于开放研究和推广最前沿技术的公司。今天,我们将一起探索他们的新作品——Zephyr 7B Alpha模型,一款融合了最先进技术,且有着广泛应用场景的语言模型。我们会通过这篇文章深入理解其工作原理,应用限制,以及训练过程。让我们一起踏上这次知识的旅程吧。

    Zephyr 7B Alpha:一款全新的人工智能语言模型

    Zephyr是一系列训练有素、能够充当帮助助手的语言模型系列的开山之作,而Zephyr-7B-α则是这一系列的首个模型。这款模型是基于mistralai/Mistral-7B-v0.1进行微调的,同时也使用了公开可用的合成数据集进行训练。这种独特的训练方法使模型在MT Bench上的性能大幅提升,使其更具有帮助性。然而,这也意味着模型可能会在被提示时生成问题文本,因此只建议将其用于教育和研究目的。

    Zephyr-7B-α是使用了7B参数的GPT-like模型,主要使用英语进行交互,其开源许可为MIT。此外,你可以通过以下链接访问其源代码库和演示页面:

    应用场景与限制

    Zephyr-7B-α模型首先在UltraChat数据集的变体上进行了微调,该数据集包含了由ChatGPT生成的各种合成对话,然后使用了DPOTrainer对模型进行了进一步的校准。因此,这款模型可以用于聊天,并且你可以在我们的演示页面上测试其功能。

    然而,Zephyr-7B-α并没有像ChatGPT那样应用RLHF技术来根据人类偏好进行对齐,或者使用循环过滤的方式来部署,因此模型可能会生成问题输出(特别是在被提示时)。此外,基础模型(mistralai/Mistral-7B-v0.1)的训练所使用的语料库的大小和组成也不为人知,但可能包含了各种Web数据和技术源,比如书籍和代码。

    训练与评估

    Zephyr 7B Alpha在评估集上取得了以下结果:

    • Loss: 0.4605
    • Rewards/chosen: -0.5053
    • Rewards/rejected: -1.8752
    • Rewards/accuracies: 0.7812
    • Rewards/margins: 1.3699
    • Logps/rejected: -327.4286
    • Logps/chosen: -297.1040
    • Logits/rejected: -2.7153
    • Logits/chosen: -2.7447

    训练过程使用了以下超参数:

    • 学习率:5e-07
    • 训练批量大小:2
    • 评估批量大小:4
    • 随机种子:42
    • 分布式类型:多GPU## 结论

    Zephyr 7B Alpha是Hugging Face的一款强大的人工智能语言模型,它的诞生标志着我们在语言处理技术上取得了一次重大突破。虽然这款模型有一些已知的限制,如可能生成问题输出等,但通过不断的学习和改进,我们相信这些问题将会被解决,而模型的性能也将得到进一步的提升。对于那些寻求深入了解最新人工智能技术的读者来说,Zephyr 7B Alpha无疑提供了一个极好的研究对象。

    在这个日新月异的时代,每一次的突破,每一次的创新,都代表着我们对未知世界的一次更深入的探索。让我们一起期待Zephyr 7B Alpha在未来能够带来更多的惊喜!

  • XAgent:面向复杂任务解决的自主智能体

    XAgent 是一个开源的基于大型语言模型(LLM)的自主智能体,能够自动解决各种任务。它旨在成为一个通用的智能体,应用于各种任务。尽管 XAgent 目前仍处于早期阶段,我们正在不断努力改进它。

    我们的目标是创建一个可以解决任何给定任务的超级智能体。我们欢迎全职、兼职等各种形式的合作。如果您对智能体的前沿感兴趣,并希望加入我们实现真正的自主智能体,欢迎与我们联系。

    XAgent 特点

    XAgent 具有以下特点:

    • 自主性:XAgent 可以在没有人类参与的情况下自动解决各种任务。
    • 安全性:XAgent 被设计为安全运行。所有的行为都被限制在一个 Docker 容器内,不用担心您的主机环境受到影响。
    • 可扩展性:XAgent 被设计为可扩展的。您可以轻松地添加新的工具来增强智能体的能力,甚至是新的智能体!
    • GUI:XAgent 为用户提供了友好的 GUI 来与智能体交互。您也可以使用命令行界面与智能体交互。
    • 与人类的合作:XAgent 可以与您合作解决任务。它不仅有能力在行进中遵循您的指导来解决复杂的任务,而且在遇到挑战时还可以寻求您的帮助。

    工具服务器

    工具服务器为 XAgent 提供强大和安全的工具来解决任务的服务器。它是一个 Docker 容器,为 XAgent 提供一个安全的运行环境。目前,工具服务器提供以下工具:

    • 文件编辑器:提供一个文本编辑工具,可以写入、读取和修改文件。
    • Python笔记本:提供一个交互式的 Python 笔记本,可以运行 Python 代码来验证想法、绘制图形等。
    • 网页浏览器:提供一个网页浏览器,可以搜索和访问网页。
    • Shell:提供一个 bash shell 工具,可以执行任何 shell 命令,甚至安装程序和托管服务。
    • Rapid API:提供一个从 Rapid API 检索 API 并调用它们的工具,为 XAgent 提供了广泛的 API。

    快速开始

    首先,您需要安装 Docker 和 docker-compose。然后,您需要构建工具服务器的镜像。在 ToolServer 目录下,运行以下命令:

    cd ToolServer
    docker-compose up

    这将构建工具服务器的镜像并启动工具服务器的容器。如果您想在后台运行容器,请使用 docker-compose up -d

    在启动 ToolServer 后,您可以配置并运行 XAgent。首先,安装依赖项:

    pip install -r requirements.txt

    然后,您需要使用 config.yml 配置 XAgent 才能运行。请提供至少一个 OpenAI key,用于访问 OpenAI API。

    最后,运行 XAgent:

    python run.py --task "put your task here" --model "gpt-4"

    您可以使用参数 --upload_files 来指定提交给 XAgent 的文件。

    案例

    我们提供了一些使用 XAgent 解决任务的案例。您可以在 XAgent 官网上查看我们的在线演示。我们还提供了视频演示和使用 XAgent 的案例。

    案例1. 数据分析:展示双环机制的有效性

    在这个案例中,我们将展示 XAgent 如何利用双环机制来解决数据分析任务。我们将使用一个简单的数据集 iris.zip 上传到 XAgent,然后让 XAgent 分析数据集并生成一个报告。XAgent 将任务分解为 4 个子任务:数据理解,验证 Python 环境,编写数据分析代码,编写报告。

    案例2. 推荐:展示与人类的合作

    XAgent 拥有独特的能力,可以积极寻求人类协助并共同解决问题,持续重新定义着人类与智能体人合作的界限。如下方截图所示,用户寻求了 XAgent 的帮助,以推荐一些适合友好聚会的优秀餐厅,但未提供具体细节。识别到提供的信息不足,XAgent 利用了“请求人类帮助”工具,促使人类介入以获取用户的偏好位置、预算限制、烹饪偏好以及任何饮食限制。凭借这宝贵的反馈信息,XAgent 轻松地生成了定制的餐厅推荐,确保用户及其朋友们获得了个性化和令人满意的体验。

    案例3. 训练模型:高级工具使用者

    XAgent 不仅能处理琐碎任务,还可以在复杂任务中提供宝贵的帮助,比如模型训练。在这里,我们展示了一个用户希望分析电影评论并评估特定电影周围公众情感的情景。作为回应,XAgent 迅速启动了下载 IMDB 数据集的过程,以训练一款先进的 BERT 模型。拥有了这个训练有素的 BERT 模型,XAgent 能够轻松地应对电影评论的复杂细节,提供关于公众对各种电影看法的见解性预测。

    评测

    我们进行了人类偏好评估,以评估 XAgent 的性能。我们为评估准备了超过 50 个现实世界的复杂任务,可以分为 5 个类别:搜索与报告,编码与开发,数据分析,数学和生活助手。我们将 XAgent 的结果与 AutoGPT 进行比较,结果显示 XAgent 完全胜过 AutoGPT。

    博客

    我们的官方博客在这里

    引用

    如果您发现我们的仓库对您有帮助,希望您能引用我们的论文:

    @misc{xagent2023,
          title={XAgent: An Autonomous Agent for Complex Task Solving}, 
          author={XAgent Team},
          year={2023},
    }

    以上就是 XAgent 的详细介绍和使用案例,希望对您有所帮助。

  • vLLM:让大型模型推理更快的工具

    今天,我要给大家介绍一款名为vLLM的神奇工具。它的主要功能是加速大型语言模型(如OpenAI的GPT-3)的推理速度。如果你是NLP(自然语言处理)领域的研究员或开发者,我相信这个工具可能会对你的工作有所帮助。

    为什么我们需要vLLM?

    在大规模语言模型运行时,我们常常遇到一个问题:显存不足。这是因为在生成新的单词或者词语(token)时,我们需要存储一些称为 keys 和 values的数据(我们可以把它们看作是模型用来生成新token的”记忆”)在GPU的显存中。然而,这些数据通常非常大,而且大小也会不断变化,这使得显存管理变得困难。传统的管理方式往往会造成显存的60%-80%的浪费。

    这就是vLLM要解决的问题。它引入了一种名为PagedAttention的新技术,可以有效地管理这些keys和values,使得显存的使用效率接近最优(浪费比例低于4%)。这样一来,我们就可以使用更大的数据批次进行运算,从而提高GPU的并行计算能力。

    vLLM的核心技术:PagedAttention

    PagedAttention的工作原理受到了操作系统中虚拟内存和分页的启发。它将每个序列的数据划分为块,每个块包含固定数量的keys和values。这些块不需要连续的内存,因此可以更灵活地对它们进行管理。

    此外,PagedAttention还支持内存共享,也就是说,当用一个提示生成多个不同的序列时,可以共享计算量和显存。这种内存共享机制可以大幅降低显存需求(最高可降低55%),从而进一步提升推理速度。

    如何使用vLLM?

    vLLM的使用非常简单。首先,使用pip命令安装vLLM:

    pip install vllm

    然后,你就可以使用vLLM来生成文本了:

    from vllm import LLM
    
    prompts = ["Hello, my name is", "The capital of France is"]  # 提示
    llm = LLM(model="lmsys/vicuna-7b-v1.3")  # 创建一个LLM
    outputs = llm.generate(prompts)  # 从提示生成文本

    vLLM也支持在线服务。你可以使用以下命令启动一个在线服务:

    python -m vllm.entrypoints.openai.api_server --model lmsys/vicuna-7b-v1.3

    然后,你就可以通过HTTP请求来调用这个服务了:

    curl http://localhost:8000/v1/completions \
        -H "Content-Type: application/json" \
        -d '{
            "model": "lmsys/vicuna-7b-v1.3",
            "prompt": "San Francisco is a",
            "max_tokens": 7,
            "temperature": 0
        }'

    如果你对vLLM感兴趣,可以在这里查阅更多信息。希望这个工具能对你的工作或学习有所帮助!

  • LMDeploy: 你的AI模型部署和服务的全方位解决方案

    欢迎来到LMDeploy的世界!LMDeploy是由MMDeploy和MMRazor团队联合打造的一款全面的工具箱,旨在帮助你轻松、高效地实现LLM任务的轻量化、部署和服务。

    高效推理引擎 TurboMind

    首先,让我为你介绍一下我们的高效推理引擎TurboMind。它是基于FasterTransformer构建的,能以极其高效的方式执行 InternLM、LLaMA、vicuna 等模型在NVIDIA GPU上的推理。想象一下,一个强大且高效的工具正在为你处理复杂的AI计算,这就是TurboMind为你提供的!

    交互推理方式

    我们知道,在多轮对话中,如果每次都处理整个对话历史,会消耗大量的计算资源。因此,LMDeploy引入了一种交互推理方式。它通过缓存对话过程中attention的k/v值,记住对话历史,避免了重复处理历史会话,提升了推理效率。

    多GPU部署和量化

    LMDeploy还提供了全面的模型部署和量化支持。无论你的AI模型规模大小,我们都已经完成了验证。这意味着,你可以更自由地选择硬件资源,无需担心模型的部署和量化问题。

    persistent batch推理

    最后,我们还有一个优化模型执行效率的神秘武器,那就是persistent batch推理。这个功能可以进一步优化你的模型,让你的AI应用运行得更快、更流畅。

    LMDeploy就像一个多功能的瑞士军刀,为你的AI模型提供全方位的支持。从高效推理引擎到灵活的模型部署,再到持续优化的推理方式,我们始终在努力为你提供最佳的AI部署和服务解决方案。让我们一起,开启AI的未来!

  • 打开数学大门的神奇模型——阿贝尔

    大家好,今天我想和大家分享一项最新的研究成果。这是由上海交通大学生成式人工智能研究组(GAIR)提出的一款名为“阿贝尔”的大型语言模型,专门用于解决数学问题。

    首先,让我们来看看为什么我们需要这样的模型。在当前的大数据时代,人工智能已经成为了我们生活中不可或缺的一部分。然而,尽管人工智能在文本理解和知识理解等任务上表现出色,但在复杂数学推理计算、物理建模、科学发现等领域,人工智能的研究却远未达到我们的期望。这就是为什么GAIR团队决定研发阿贝尔模型,以帮助我们更好地理解和解决数学问题。

    那么,阿贝尔模型是如何工作的呢?在阿贝尔模型中,研究者们结合了两种先前的数学解决方法,即CoT(思维链)和PoT(思维程序)。CoT方法通过一步步的自然语言描述来解决问题,但在处理复杂的数学或算法推理过程时,可能会遇到困难。而PoT方法则是通过编程的方式来解决问题,尽管这种方法在处理更抽象的推理场景时可能会遇到困难,但它利用Python解释器来大幅简化数学求解过程。

    为了充分利用这两种方法的优点,研究团队创建了一个新的数学混合指令微调数据集MathInstruct,它广泛覆盖了不同的数学领域和复杂程度,并将CoT和PoT原理结合到一起。然后,他们使用这个数据集对模型进行训练,得到了一系列不同大小的阿贝尔模型。

    研究者们使用了一系列的数据集来对阿贝尔模型进行评估,结果显示,相比于之前的方法,阿贝尔模型能更好地处理领域外的数据集,并能大幅提升开源LLM的数学推理能力。

    阿贝尔模型的出现,无疑为我们解决数学问题提供了一种新的可能。无论你是在日常生活中遇到的购物预算问题,还是在工作中遇到的复杂金融投资问题,阿贝尔模型都能为你提供有效的解决方案。这个新的数学模型,不仅能够应对各种类型的数学问题,还能够在不同的数据集中都取得很好的效果,表现出了强大的泛化能力。这对于我们在日常生活中解决各种数学问题,甚至在更高层次的金融投资、科学研究等领域,都有着巨大的潜力和价值。

    你可能会问,我能在哪里找到这个神奇的模型呢?别担心,阿贝尔模型的代码已经在GitHub上开源,研究团队也在Hugging Face发布了训练好的不同大小的模型,供大家免费使用。

    参考链接:
    论文链接
    代码链接
    数据集与模型链接

  • 一种新型数学问题解决模型——MAmmoTH

    在我们的日常生活中,数学问题无处不在,从简单的购物预算,到复杂的金融投资计算,都需要我们运用数学来解决。然而,对于许多人来说,数学问题可能并不是那么容易解决。那么,有没有一种方式,可以让计算机帮助我们解决这些问题呢?

    最近,来自滑铁卢大学和俄亥俄州立大学等机构的研究团队提出了一种名为MAmmoTH的大型语言模型(LLM),专门针对解决数学问题。这个新模型充分利用了两个先前的数学解决方法,即CoT(思维链)和PoT(思维程序)。

    在CoT方法中,问题通过一步步的自然语言描述来解决,这个方法的优点是能覆盖大多数数学科目,但在计算精度和复杂的数学或算法推理过程方面存在困难。而PoT方法则是通过编程的方式来解决问题,利用Python解释器来简化数学求解过程,但PoT在处理更抽象的推理场景时可能会遇到困难。

    为了充分利用这两种方法的优点,研究团队创建了一个新的数学混合指令微调数据集MathInstruct,它广泛覆盖了不同的数学领域和复杂程度,并将CoT和PoT原理结合到一起。

    为了测试这个新的数学模型,研究者们使用了一系列的数据集,包括GSM8K、MATH、AQuA-RAT、NumGLUE等,对模型进行了评估。结果显示,相比于之前的方法,MAmmoTH模型能更好地处理领域外的数据集,并能大幅提升开源LLM的数学推理能力。

    这个新的数学模型MAmmoTH,不仅能够应对各种类型的数学问题,还能够在不同的数据集中都取得很好的效果,表现出了强大的泛化能力。这对于我们在日常生活中解决各种数学问题,甚至在更高层次的金融投资、科学研究等领域,都有着巨大的潜力和价值。

    这项研究的代码已经在GitHub上开源,研究团队也在Hugging Face发布了训练好的不同大小的模型,供大家免费使用。如果你对数学问题感到头疼,或者你是一个对AI有着极高热情的研究者,那么这个新的数学模型MAmmoTH可能正是你需要的工具。

    参考资料:
    论文:https://arxiv.org/pdf/2309.05653.pdf
    代码:https://github.com/TIGER-AI-Lab/MAmmoTH
    数据集与模型:https://huggingface.co/datasets/TIGER-Lab/MathInstruct

  • 书生·浦语 大语言模型确实很牛!

    书生·浦语 目前开源的 20B模型性能超过了同参数规模竞争者。

    更好的一点是,书生·浦语开源了训练和部署工具链。

    Demo:书生·浦语-对话-20B · 模型库 (modelscope.cn)

    相比其它竞争者,这个模型的背景也更加有实力,可持续性会更好。

    InternLM/README-zh-Hans.md at main · InternLM/InternLM (github.com)

  • vLLM 加速LLM推理24倍

    UC伯克利开源了 vLLM 这个大语言模型推理和服务引擎。

    主要亮点包括:

    1. 使用新的PagedAttention注意力算法,可以有效管理注意力键值缓存,节省内存开销。
    2. 性能明显优于HuggingFace Transformers, 吞吐量提升24倍。
    3. 能够在GPU资源有限的情况下提供LLM服务。
    4. 能支持各种LLM模型架构,如GPT系列、LLaMA等。
    5. vLLM已经被用于Chatbot Arena和Vicuna LM模型的服务后端,提升吞吐量30倍。

    主要技术亮点在于PagedAttention算法。它通过在非连续内存空间中存储注意力键值,有效管理内存。

    使用vLLM可以很容易完成离线推理和在线部署,提供类似OpenAI API的服务。项目对于降低LLM服务的成本和难度具有重要意义,有利于更多机构和团队部署自己的LLM服务。vLLM是一个值得关注的开源项目,解决了LLM服务效率和可伸缩性方面的重大挑战。

  • Ghost in the Minecraft:突破莫拉维克悖论,通用人工智能取得重要突破!

    近期,来自商汤、清华大学、上海人工智能实验室等机构的研究人员提出了一种全新的框架——Ghost in the Minecraft(GITM)。GITM可以将大语言模型与基于文本的知识和记忆整合在一起,在经典游戏《我的世界》中打造出通才AI智能体。这一研究为通用人工智能(AGI)的发展迈出了重要一步。

    GITM在《我的世界》内主世界的所有技术挑战上实现了100%的任务覆盖率,成功解锁了完整的科技树的262个物品。同时,GITM在最受关注的「获取钻石」任务上取得了67.5%的成功率,相比于目前最佳成绩(OpenAI VPT)提高了47.5%。GITM的训练效率也达到新高度,环境交互步数只需已有方法的万分之一,单一CPU节点训练2天即可完成。

    GITM的成功突破有助于推动通用人工智能(AGI)的研究目标加速实现,发展出能够在开放世界环境中像人一样进行感知、理解和交互的智能体。这将为机器人和自动驾驶等产业带来巨大突破和进步,有效解决现实世界中复杂环境和各类长尾问题,推动AI技术更大规模的产业落地。

    项目主页: https://github.com/OpenGVLab/GITM

    GITM能力和应用展望

    GITM能够在《我的世界》中面对各类地形、环境、白天黑夜场景,甚至遇到怪物也能自如应对。GITM还可以进一步应用在《我的世界》更加复杂的任务中,如建造避难所、农田、铁傀儡,创造自动化设备所需的红石电路、进入下界所需的下界传送门等。

    这些任务展示了GITM强大的能力和可扩展性,使得智能体能够在《我的世界》中长时间生存、发展,探索更加高级的世界。

    商汤科技推进通用人工智能发展

    作为全球人工智能领域的领军企业,商汤科技以「大模型+大算力」推进AGI(通用人工智能)发展的战略布局。商汤科技在多模态、多任务通用大模型领域快速发展,以「日日新SenseNova」大模型体系为核心,不断助力创新技术在智能汽车、智慧生活、智慧商业和智慧城市等领域的快速应用。

    此外,商汤基于OpenDILab决策AI平台开发的AI模型DI-star在《星际争霸》中战胜了曾经的大中华区冠军,展示出强大的决策AI能力。GITM的成功将推动自动驾驶等应用处理复杂任务的能力更上一层楼,打破更高的技术天花板。

  • GPT的运用和训练

    对GPT的运用和训练,这里给出以下几点总结:

    1. GPT的训练流程大致可以分为四个阶段:预训练、监督式微调、奖励建模、强化学习。其中预训练是最耗时耗力的,需要大量数据和算力。
    2. 预训练是让模型学习通用的语言表示,然后通过微调来应用于特定任务。微调所需的数据会少很多。
    3. 相较于监督式微调,使用强化学习人类反馈的方式(RLHF)可以让模型在某些任务上表现更好。但成本也更高。
    4. 使用GPT时,可以通过精心设计prompt来引导模型输出满意的结果。也可以通过工具和插件,或微调模型来进一步提高性能。
    5. GPT更像是在模仿,而非真正理解。因此需要在prompt中更明确地指示模型输出正确结果。
    6. 在使用GPT时要小心注意偏见、错误信息等问题。最好结合人工监督来使用。
    7. GPT有很多有趣的功能和限制,如模拟思维过程、使用脑錯等。但仍需要进一步研究才能更好地使用。

    GPT已经非常强大了,但仍存在诸多局限。合理使用与人工相结合是目前应用的一个方向。提高模型本身和与模型交互的方式仍有很多可以改进的地方。

    OpenAI联合创始人亲自上场科普GPT,让技术小白也能理解最强AI – 知乎 (zhihu.com)

  • 斯坦福最新Sophia优化器比Adam快2倍

    斯坦福大学最近发布了一篇研究论文,提出了一种名为Sophia的新型优化器,用于提高大型语言模型(LLM)的预训练效率。与目前广泛使用的Adam优化器相比,Sophia优化器在预训练GPT-2等模型时可以将训练时间减少约50%。这意味着在相同的预算下,Sophia优化器可以实现更好的预训练损失。该优化器利用轻量级二阶方法,通过对Hessian矩阵对角线的廉价随机估计来作为预调节器,并通过限幅机制来控制最坏情况下的更新大小。

    关键概念

    • Sophia优化器是一种新型优化器,用于提高大型语言模型的预训练效率。与Adam优化器相比,Sophia可以在相同的预训练损失下将训练时间减少约50%。
    • Sophia是一种轻量级二阶优化器,利用Hessian矩阵对角线的廉价随机估计作为预调节器,并通过限幅机制来控制最坏情况下的更新大小。
    • 随着模型尺寸的增加,Sophia相对于Adam的优势变得越来越明显。在相同步数下,Sophia的验证损失优于Adam和Lion。
    • Sophia优化器可以无缝集成到现有的训练流程中,无需对模型架构或计算基础设施进行特殊修改。

    实验结果

    实验结果表明,Sophia优化器在预训练大型语言模型时表现优于Adam和Lion优化器。在相同的步数下,使用Sophia预训练的模型在多数任务上优于使用Adam和Lion预训练的模型。此外,使用Sophia预训练100K步的模型与使用Adam预训练200K步的模型具有相当的性能。这意味着Sophia优化器可以在更短的时间内实现相同或更好的预训练损失。

  • QLoRA: 高效Finetuning 量化 LLMs

    Dettmers提出了一种高效的微调方法QLoRA,它能够在保持完整的16位微调任务性能的同时,将内存使用量降低到足以在单个48GB GPU上微调65B参数模型的程度。

    QLoRA通过在低秩适配器(LoRA)中将梯度反向传播到一个冻结的、4位量化的预训练语言模型。我们最优秀的模型家族,我们将其命名为Guanaco,在Vicuna基准测试中胜过之前所有公开发布的模型,达到了ChatGPT性能水平的99.3%,而仅需要在单个GPU上进行24小时的微调。QLoRA在不牺牲性能的前提下采用了许多创新技术来节省内存:

    (a)4位NormalFloat(NF4),一种对于正态分布权重来说,从信息理论角度具有最优性的新数据类型;

    (b)双重量化,通过量化量化常数来减少平均内存占用;

    (c)分页优化器,以管理内存峰值。我们使用QLoRA对超过1000个模型进行微调,在8个指令数据集中,对多种模型类型(LLaMA,T5)以及在常规微调中难以运行的模型规模(例如33B和65B参数模型)进行了详细的指令跟随和聊天机器人性能分析。

    结果表明,QLoRA在小型高质量数据集上的微调可以达到最先进的结果,即使使用比之前SoTA更小的模型。我们根据人类评估和GPT-4评估结果,对聊天机器人性能进行了详细分析,结果表明GPT-4评估是一种廉价且合理的人类评估替代方案。此外,当前的聊天机器人基准测试并不可靠,无法准确评估聊天机器人的性能水平。已发布了所有模型和代码,包括用于4位训练的CUDA内核。


    artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs (github.com)

  • VanillaNet: 极简主义的力量

    最近,一篇名为《VanillaNet: the Power of Minimalism in Deep Learning》的论文引起了广泛关注。该论文提出了一种名为VanillaNet的极简神经网络模型,该模型以其简单的结构和高性能表现出色。VanillaNet使用类似于LeNet和AlexNet的结构来达到或超越现有的视觉骨干网络。

    VanillaNet的核心工作是如何在没有复杂链接和注意力机制的情况下,让一个浅层网络尽可能地提升精度。为了实现这一目标,VanillaNet采用了两个优化策略:深度训练(Deep training)策略和基于级数启发的激活函数。

    在ImageNet上的实验结果显示,6层的VanillaNet可以超过ResNet-34,而13层的VanillaNet在ImageNet上达到了83%的top1精度,超过了几百层网络的性能,同时展示了出色的硬件效率优势。在相同精度时,VanillaNet的速度比Swin-S快了1倍以上。

    该论文的研究成果为浅层神经网络的发展打开了新的大门,让我们重新思考深度神经网络性能提升的关键因素:深度、感受野、注意力机制还是参数量?尽管VanillaNet已在实际业务中得到应用,但它仍有很多提升空间,如预训练、蒸馏、结构优化等。这一成果为未来新架构和新应用带来了无限可能。

  • 知乎携手面壁智能推出全新开源大模型:CPM-Bee10b 登顶中文基座模型

    2023年5月27日,知乎在2023中国国际大数据产业博览会上发布了最新的大语言模型成果。知乎合伙人、首席技术官李大海宣布,知乎和面壁智能共同研发的中文基座大模型CPM-Bee10b全面开源,并发布了智能大模型产品“露卡”和知乎大模型应用功能“搜索聚合卡”。李大海表示,知乎将携手面壁智能,让中国用户在大模型时代享受到最优质的服务。

    知乎与面壁智能首度合作,推出开源大模型CPM-Bee10b

    在“2023知乎发现大会”上,知乎发布了大语言模型“知海图AI”并内测首个站内大模型应用功能“热榜摘要”。此举令知乎成为国内首批具备大语言模型能力的公司,并且让更多人开始关注知乎的技术发展。时隔一个月之后,知乎在2023数博会上再度带来惊喜。

    知乎联合面壁智能发布了首个开源中英文基座大模型CPM-Bee 10b。李大海介绍,该模型从零开始自主训练,基于Transformer架构,中英双语表现优秀,拥有百亿量级参数、超过3万亿高质量语料。经过ZeroCLUE的评测,CPM-Bee10b 以平均 79.8 分登顶中文基座模型,并且英文基座模型得到了68的平均分。“CPM-Bee10b 将全面开源,并允许商用。”李大海称,面壁智能一直坚持开源路线,未来也会持续拥抱开源,促进大模型领域技术和生态的繁荣。

    智能大模型产品“露卡”亮相,展现全面性能

    发布会上,知乎还带了最新的智能大模型产品“露卡”(Luca)。该产品在开源基础模型上又有进一步性能提升,可以进行智能交互并支持多轮对话。从评测结果来看,有65%的结果性能等于或优于ChatGPT。在发布会现场演示中,“露卡”既展示了写文案、藏头诗、解数学题等“全科”能力,也能完成例如“如何制作毛血旺”等回答。令人惊喜的是,“露卡”还拥有图片理解能力,甚至可以查找论文并生成摘要,这表明“露卡”拥有非常优秀的多模态理解能力。

    知乎推出大模型应用功能“搜索聚合卡”,助力用户高效获取信息

    除了基础能力,知乎也是国内率先在应用层面探索大模型产品的公司。继“热榜摘要”之后,知乎带来了又一款站内的大模型应用功能“搜索聚合”。该产品将大模型能力应用到了知乎搜索上,每当用户触发搜索时,系统就会从大量提问和回答中聚合观点,提高用户获取信息、形成决策的效率。发布会当天,“露卡”和“搜索聚合”都开启了正式内测。李大海表示,知乎将继续夯实大模型基础能力,迭代应用产品,为让中国用户享受到一流的大模型服务而努力奋斗。

    未来展望:知乎致力于为用户提供一流的大模型服务

    本次发布会标志着知乎在大模型领域的技术实力再次得到了充分展示,同时也展现出知乎在人工智能领域的技术积累和创新能力。在与面壁智能的合作中,双方共同推进了大模型的研发,为中国用户带来了更多优质的服务。

    未来,知乎将继续加强与各方的合作,进一步拓展大模型在实际应用中的价值。通过不断优化和升级大模型技术,以及与实际场景相结合的应用产品,知乎将努力成为大模型领域的引领者,让更多用户在大模型时代享受到一流的服务。

  • ConvNeXt V2:使用遮罩自编码器共同设计和扩展ConvNets

    由于改进的架构和更好的表示学习框架的推动,视觉识别领域在 2020 年代初期迅速现代化并提高了性能。例如,现代卷积神经网络(ConvNets),以 ConvNeXt 为代表,在各种场景中表现出强大的性能。尽管这些模型最初是为具有 ImageNet 标签的监督学习设计的,但它们也可能从自监督学习技术(如遮蔽自动编码器(MAE))中受益。然而,我们发现简单地结合这两种方法会导致性能不佳。在本文中,我们提出了一个全卷积遮蔽自动编码器框架和一个新的全局响应归一化(GRN)层,这个层可以添加到 ConvNeXt 架构中以增强通道间特征竞争。这种自监督学习技术和架构改进的共同设计产生了一个名为 ConvNeXt V2 的新模型族,它显著提高了纯粹的 ConvNets 在各种识别基准上的性能,包括 ImageNet 分类、COCO 检测和 ADE20K 分割。我们还提供了各种尺寸的预训练 ConvNeXt V2 模型,从参数数量为 370 万的高效 Atto 模型(在 ImageNet 上的 top-1 准确率为 76.7%),到使用公共训练数据达到最先进的 88.9% 准确率的 6.5 亿参数的 Huge 模型。

    [2301.00808] ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders (arxiv.org)

  • 大模型能力的“涌现”机制被谷歌发现

    大型语言模型的涌现能力是一个黑箱,难以解释。尽管目前的研究已经开始揭示其中的一些机制,但我们仍然需要更深入的研究来更好地理解这些现象。

    谷歌的这篇论文提供了有关语言模型的ICL行为如何随着模型参数而改变的重要见解,以及更大的语言模型具有将输入映射到许多类型的标签的涌现能力。这些发现表明,不同规模的语言模型在上下文学习能力方面存在着明显的差异。特别是,大型语言模型可以通过覆盖预先训练的语义知识和学习输入-标签映射来执行任务,而小型模型则更依赖于先验知识。

    此外,研究者还发现,指令调优加强了语义先验知识的使用,而不是增加了学习输入-标签映射的能力。这些发现有助于我们更好地理解语言模型的涌现行为,同时也为未来的研究提供了方向,包括为什么这些现象会与模型参数规模相关等问题。


    未来的研究可以探索不同类型的语言模型之间的差异,以及它们的涌现能力如何随着训练数据集的规模变化而改变。

    此外,可以研究如何利用语义先验知识和输入-标签映射来设计更好的训练策略,以提高语言模型的性能。

    最终,我们希望通过深入研究语言模型的涌现能力,能够更好地理解它们如何执行复杂的自然语言处理任务,并为未来的人工智能发展提供更好的基础。

    论文地址:https://arxiv.org/pdf/2303.03846.pdf

  • InstructBLIP抢跑看图聊天,开源项目横扫多项SOTA

    InstructBLIP是一种指令感知的多模态基础模型,通过微调BLIP-2和丰富指令微调数据获得。它在图像理解、推理和描述上有很强的表现,实现了SOTA,有更好的泛化能力。值得期待其在更广泛的数据集和任务上持续创新。

    1. GPT-4尚未上线,但已被InstructBLIP超越,尤其在图像理解、推理和描述上表现更强。
    2. InstructBLIP基于BLIP-2进行微调得到,能进行多轮视觉对话,有更强的泛化能力。
    3. InstructBLIP通过收集11个任务类别下28个数据集,生成10-15个指令模板,得到更丰富的指令微调数据。
    4. InstructBLIP利用BLIP-2中的Q-Former,实现了指令感知的视觉特征提取方法。指令不仅输入到LLM,也输入到Q-Former,这有助提高模型从不同指令中学习的能力。
    5. 考虑数据集数量和大小差异,InstructBLIP使用加权采样和平滑方法进行训练。为某些数据集手动调整权重,提高其收敛性。
    6. InstructBLIP在13个数据集上取得SOTA,超过BLIP-2和Flamingo。在视频QA上未见过的数据集上,InstructBLIP超过SOTA47.1%。
    7. 消融研究显示,指令感知视觉特征提取和数据集平衡策略对性能有明显提升。特别是在需空间/时间视觉推理的任务上,指令输入Q-Former更为关键。
    8. 定性研究显示,InstructBLIP比GPT-4、LLaVA和MiniGPT-4有更全面、视觉化和逻辑的表现。InstructBLIP可以自适应生成不同长度的响应,解决用户意图。
    9. InstructBLIP通过指令微调和多任务训练,在特定数据集上有更好表现。与Flamingo和BLIP-2相比,InstructBLIP在微调时图像分辨率和视觉编码器保持不变,降低了训练参数,提高了效率。

    gfodor/instructblip-replicate: InstructBLIP replicate cog package (github.com)

    [2305.06500] InstructBLIP: Towards General-purpose Vision-Language Models with Instruction Tuning (arxiv.org)