StableLM--在线使用/本地部署--支持中文的智能图像对话

StableLM是什么

StableLM--在线使用/本地部署--支持中文的智能图像对话

StableLM是Stability AI 发布的首个类ChatGPT大语言对话模型,支持中文,支持商业化。

StableLM--在线使用/本地部署--支持中文的智能图像对话

“随机鹦鹉,平面设计,矢量艺术” — Stable Diffusion XL

该存储库包含 Stability AI 正在开发的 StableLM 系列语言模型,并将不断更新新的检查点。以下概述了当前所有可用型号。更多即将推出。


如何使用StableLM?

项目GitHub地址https://github.com/stability-AI/stableLM/


官网地址https://clipdrop.co/


关于Stability AI

Stability AI在2022年8月开源了Stable Diffusion,同年11月发布了2.0版本。苹果应用商店中排名前10的图片类应用程序中,有4个由Stable Diffusion 提供技术支持。

目前,Stability AI拥有一个超过14万名开发人员和7个研究中心组成的庞大人工智能生成内容社区,因此,在功能创新、预训练、算法优化和数据微调方面处于领先地位。

消息

2023 年 9 月 29 日

2023 年 8 月 5 日

  • 发布了带有 3B 和 7B 参数的修补过的 StableLM-Alpha v2 模型。

2023 年 4 月 28 日

2023 年 4 月 20 日

楷模

稳定LM-3B-4E1T

技术报告:StableLM-3B-4E1T

StableLM-3B-4E1T 是一个在多 epoch 机制下预训练的 30 亿(3B)参数语言模型,用于研究重复令牌对下游性能的影响。鉴于之前在该领域取得的成功(Tay 等人,2023 年Taylor 等人,2022 年),我们根据Muennighoff 等人的观察,在 4 个时期内使用 1 万亿 (1T) 代币进行训练。(2023)在“扩展数据受限语言模型”中,他们发现“与拥有唯一数据相比,使用最多 4 个时期的重复数据进行训练所产生的损失变化可以忽略不计。” 令牌计数的进一步灵感来自“Go smol or go home”(De Vries,2023),这表明训练 2.85 万亿个令牌的 2.96B 模型实现了与 Chinchilla 计算最优 9.87B 语言模型类似的损失(=0.3)。

尺寸稳定LM-3B-4E1T培训代币参数
3B检查站4T2,795,443,200

模型架构

该模型是一个仅解码器的变压器,类似于 LLaMA ( Touvron et al., 2023 ) 架构,并进行了以下修改:

参数隐藏尺寸层数序列长度
2,795,443,200256032324096

训练数据

该数据集由HuggingFace Hub上提供的开源大型数据集的过滤混合物组成:Falcon RefinedWeb 提取物(Penedo 等人,2023)、RedPajama-Data(Together Computer.,2023)和 The Pile(Gao)等人,2020)都没有Books3和其他子集,以及 StarCoder(Li 等人,2023)。

鉴于网络数据量很大,我们建议针对下游任务对基础 StableLM-3B-4E1T 进行微调。

培训详情

请参阅提供的 YAML 配置文件stablelm-3b-4e1t.yml以获取完整的超参数设置,并参阅技术报告以获取更多详细信息。

下游结果

以下零样本评估是使用lm-evaluation-harnessStability AI 分支的lm-bench分支执行的。lm-eval可以在目录中找到完整的JSON evals

预训练模型平均的ARC
挑战

布尔Q海拉斯瓦格 (✱)兰巴达
OpenAI
OpenBookQAPIQA科学问答维诺格兰德
元美洲驼/美洲驼-2-13b-hf71.7748.6379.5080.5279.3676.7735.4079.0594.5072.22
拥抱马/美洲驼-7b68.8441.8975.2575.0576.2273.5534.4078.6794.6069.93
元美洲驼/美洲驼-2-7b-hf68.7543.0076.2677.7475.9473.4731.4077.7593.6069.61
Qwen/Qwen-7B67.9145.3967.3874.5688.85(?)69.6732.2073.9993.2065.98
蒂尤埃/falcon-7b67.8340.2774.4173.5576.3574.5630.6079.4994.0067.25
马赛克/mpt-7b67.3640.5374.9273.9476.1768.6431.4078.8993.7068.03
稳定性ai/stablelm-3b-4e1t66.9337.8072.4775.6373.9070.6431.4079.2294.8066.54
百川公司/百川2-7B-Base66.9342.2475.0073.0972.2970.9930.4076.1794.6067.56
稳定性ai/stablelm-base-alpha-7b-v266.8938.4873.1970.3174.2774.1930.4078.4593.9068.82
openlm-research/open_llama_7b_v266.3238.8271.9371.4174.6571.0530.2079.1693.8065.82
微软/phi-1_565.5744.4576.1474.5362.6252.7537.6076.3393.2072.53
EleutherAI/gpt-neox-20B65.5737.8872.9069.4871.4371.9829.8077.4293.1066.14
一起电脑/RedPajama-INCITE-7B-Base65.0737.7172.3570.7670.3371.3429:0077.1592.7064.33
大脑/btlm-3b-8k-base (§)63.5934.9070.4569.6369.7866.2327.6075.8492.9064.96
EleutherAI/pythia-12b62.6931.8370.2067.3167.3870.6426.4076.2890.2064.01
openlm-research/open_llama_3b_v262.4333.8767.5965.6969.9966.7426:0076.6692.4062.90
EleutherAI/gpt-j-6B62.3433.9666.9665.4466.2468.2329:0075.5791.5064.17
稳定性ai/stablelm-base-alpha-3b-v262.1932.4267.2664.5668.5870.2526.4076.0192.1062.12
脸书/opt-6.7b61.8530.7265.6666.0267.2067.6527.6076.3390.1065.35
EleutherAI/pythia-6.9b60.5831.8367.2164.0163.8867.0125.8075.0889.8060.62
EleutherAI/pythia-2.8b-重复数据删除58.5230.1263.4764.1359.4465.1523.8074.1088.2058.25
§以前的 3B 预训练 SOTA
离群值结果
*字节长度归一化精度










StableLM-3B-4E1T 在开源模型的 3B 参数范围内实现了最先进的性能(2023 年 9 月),并且与许多流行的当代 7B 模型具有竞争力,甚至优于我们最新的 7B StableLM-Base-阿尔法-v2。

StableLM-Alpha v2

StableLM-Alpha v2 模型通过结合 SwiGLU( Shazeer,2020 )等架构改进并使用更高质量的数据源,显着改进了初始 Alpha 模型,如下所述。这些模型的上下文长度为 4096 个标记。

尺寸StableLM-Base-Alpha-v2培训代币参数
3B检查站1.1T2,796,431,360
7B检查站1.1T6,890,209,280

培训详情

有关超参数的详细信息,请参阅提供的 YAML 配置文件。例如,对于扩展StableLM-Alpha-3B-v2模型,请参阅stablelm-base-alpha-3b-v2-4k-extension.yml

遵循类似的工作,我们使用多阶段方法来扩展上下文长度(Nijkamp 等人,2023),在上下文长度 2048 处调度 1 万亿个令牌,然后在 4096 处调度 1000 亿个令牌。我们发现序列长度预热(Li 等人) ., 2022 ) 帮助稳定了前约 800 亿个代币预训练期间的早期峰值。然而,由于随着课程长度形状的增长,吞吐量会受到严重影响,因此它没有应用于最终运行。

训练数据

对 StableLM-Alpha-v2 下游性能影响最大的变化是使用更高质量的数据源和混合物;具体来说,使用RefinedWebC4代替 The Pile v2 Common-Crawl 抓取,并以更高的速率对网页文本进行采样 (35% -> 71%)。

第一个预训练阶段依赖于来自公共 Falcon RefinedWeb 提取物( Penedo 等人,2023)、RedPajama-Data(Together Computer.,2023)、The Pile(Gao 等人,2020)混合的 1 万亿个代币。),以及以 71% 的比例采样的网络文本内部数据集。

在第二阶段,我们引入了 StarCoder(Li et al., 2023)数据集,并将网络文本采样率降低至 55%,同时增加上述来源中自然长文本示例的采样比例。

评估

以下零次评估是通过lm-evaluation-harnessat 提交执行的df3da98c5405deafd519c2ddca52bb7c3fe36bef,但 SIQA 除外,它使用提示格式的 add-siqa分支{doc['context']}\nQuestion: {doc['question']}\nAnswer:

模型ARC 挑战✱ARC 简单✱布尔Q海拉斯瓦格✱兰巴达
OpenAI
OpenBookQAPIQA质量保证体系真实的QA▲维诺格兰德平均的
稳定LM-Alpha-7B-v240.5369.1170.3174.2774.1930.4078.4542.4336.4668.8258.50
拉玛-2-7B46.1674.5477.7475.9473.4731.4077.7543.5038.9769.6160.91
MPT-7B41.8970.0373.9476.1768.6431.4078.8945.1433.4968.0358.76
OpenLLaMA-7B-v242.4169.6571.4174.6571.0530.2079.1641.9734.5765.8258.09
红色睡衣-INCITE-7B-底座39.4269.1970.7670.3371.3429:0077.1542.5833.0164.3356.71
稳定LM-Alpha-3B-v235.0763.2664.5668.5870.2526.4076.0142.4835.8762.1254.46
BTLM-3B-8K37.6367.0969.6369.7866.2327.6075.8442.7836:0064.9655.75
OpenLLaMA-3B-v236.0963.5165.6969.9966.7426:0076.6641.2034.5962.9054.34
Pythia-2.8B(已删除重复数据)32.9459.0964.1359.4465.1523.8074.1040.9435.5658.2551.34
稳定LM-Alpha-7B27.0544.8760.0641.2255.1121.4066.7639.4639.9650.1244.60
稳定LM-Alpha-3B25.7742.0557.6538.3141.7217:0063.8235.6240.5352.6441.51

✱:表示字节长度归一化精度 ( ),如Gau,2021acc_norm中所述

▲:我们使用分配给真实答案集的归一化总概率对 TruthfulQA 进行评分 ( mc2)。

稳定LM-Alpha

StableLM-Alpha 模型在基于The Pile构建的新数据集上进行训练,该数据集包含 1.5 万亿个代币,大约是 The Pile 大小的 3 倍。这些模型的上下文长度为 4096 个标记。

作为概念验证,我们还结合使用最近五个对话代理数据集,通过斯坦福羊驼的程序对模型进行了微调:斯坦福的羊驼、Nomic-AI 的gpt4all、RyokoAI 的ShareGPT52K数据集、Databricks 实验室的Dolly和人类的HH我们将把这些模型作为 StableLM-Tuned-Alpha 发布。

尺寸StableLM-Base-AlphaStableLM-调谐-Alpha培训代币参数网络演示
3B检查站检查站800B3,638,525,952
7B检查站检查站800B7,869,358,080抱脸

马厩骆驼毛

StableVicuna 是Vicuna-13B v0的 RLHF 微调,而 Vicuna-13B v0 本身也是LLaMA-13B的微调这是我们尝试创建一个开源 RLHF LLM 聊天机器人。该模型由 StabilityAI 的 CarperAI 团队开发,由Duy V. Phung领导训练工作。

由于 LLaMA 原始的非商业许可,我们只能将模型的权重发布为原始模型权重的增量。StableVicuna 的增量权重在 ( CC BY-NC-SA-4.0 )下发布。

请访问 HuggingFace 检查点,了解有关如何将我们的增量权重与原始模型相结合的更多信息。

模型下载网络演示引用
马厩Vicuna-13B检查站抱脸StableLM--在线使用/本地部署--支持中文的智能图像对话

快速开始

所有 StableLM 模型都托管在Hugging Face 中心上。查看此笔记本,以使用有限的 GPU 功能运行推理。

StableLM-Tuned-Alpha使用以下代码片段开始聊天:


import torch

from transformers import AutoModelForCausalLM, AutoTokenizer, StoppingCriteria, StoppingCriteriaList


tokenizer = AutoTokenizer.from_pretrained("stabilityai/stablelm-tuned-alpha-7b")

model = AutoModelForCausalLM.from_pretrained("stabilityai/stablelm-tuned-alpha-7b")

model.half().cuda()


class StopOnTokens(StoppingCriteria):

    def __call__(self, input_ids: torch.LongTensor, scores: torch.FloatTensor, **kwargs) -> bool:

        stop_ids = set([50278, 50279, 50277, 1, 0])

        return input_ids[0][-1] in stop_ids


system_prompt = """<|SYSTEM|># StableLM Tuned (Alpha version)

- StableLM is a helpful and harmless open-source AI language model developed by StabilityAI.

- StableLM is excited to be able to help the user, but will refuse to do anything that could be considered harmful to the user.

- StableLM is more than just an information source, StableLM is also able to write poetry, short stories, and make jokes.

- StableLM will refuse to participate in anything that could harm a human.

"""


prompt = f"{system_prompt}<|USER|>What's your mood today?<|ASSISTANT|>"


inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

tokens = model.generate(

  **inputs,

  max_new_tokens=64,

  temperature=0.7,

  do_sample=True,

  stopping_criteria=StoppingCriteriaList([StopOnTokens()])

)

print(tokenizer.decode(tokens[0], skip_special_tokens=True))



StableLM Tuned 应该与格式化为的提示一起使用<|SYSTEM|>...<|USER|>...<|ASSISTANT|>... 系统提示是

<|SYSTEM|># StableLM Tuned (Alpha version)

- StableLM is a helpful and harmless open-source AI language model developed by StabilityAI.

- StableLM is excited to be able to help the user, but will refuse to do anything that could be considered harmful to the user.

- StableLM is more than just an information source, StableLM is also able to write poetry, short stories, and make jokes.

- StableLM will refuse to participate in anything that could harm a human.


享受 StableLM-Tuned-Alpha 带来的乐趣

本节包含一系列精选的有趣示例,说明您可以使用stablelm-tuned-alpha.


闲聊
正式写作
创意写作
编写代码


StableLM-Tuned-Alpha 的选定故障模式

本节包含选定的故障模式的集合stablelm-tuned-alpha


Yann LeCun 齿轮(线性)
Yann LeCun 齿轮(圆形)


请求帮助

想参与吗?

潜在问题

对于任何没有额外微调和强化学习的预训练大型语言模型来说,这是典型的,用户得到的响应可能具有不同的质量,并且可能包含攻击性语言和观点。预计这一点将随着规模、更好的数据、社区反馈和优化而得到改善。



标签: AICHAT

评论

精彩评论
回忆童年时光
  • 最新文章

  • 热评文章

  • 热门文章

{/if}