in

稳定AI推出StableLM,一款开源的ChatGPT竞争对手。

周三,Stability AI推出了其新的开源AI语言模型,名为 StableLM。通过发布最新的语言模型 Stability,AI希望重复开源图像合成模型 Stable Diffusion 的催化效应,并使基础AI技术能够向所有人提供。

除了改进之外,StableLM还可以用来开发一个替代OpenAI的ChatGPT的开源方案。

要点:

  • Stability AI推出了一种名为StableLM的开源模型,该模型是OpenAI的ChatGPT的一种替代方案。
  • StableLM模型能够执行各种任务,例如生成代码、文本等,展示了小而高效的模型也可以通过适当的训练提供高性能。
  • StableLM目前可以在GitHub和Hugging Face上以Alpha形式使用。

StableLM:ChatGPT的开源替代方案

StableLM是由Stability AI开发的一种开源替代方案,用于执行各种任务,例如生成内容、回答问题等。Stability AI定位自己为OpenAI的开源竞争对手。

根据Stability的blog 帖子,他们最新的语言模型StableLM是在一个实验数据集上进行训练的,该数据集是在The Pile上开发的。

显然,该数据集包含大约1.5万亿个标记的内容,比原来的大小大3倍。即使参数只有30到70亿个,StableLM在编码和对话任务中表现出了高性能,得益于数据集的丰富性。

Stability在他们的博客中表示:“语言模型是我们数字经济的支柱。通过我们的语言模型,我们希望每个人都能拥有自己设计的独立声音。”像StablityLM这样的开源模型展示了对透明、支持和可用的人工智能技术的承诺。

就像OpenAI的最新大型语言模型GPT-4一样,StableLM能够生成文本并预测序列中的下一个标记。

序列起初由用户提供提示或查询,然后StableLM根据该提示预测下一个标记。StableLM能够生成类似人类的文本并为用户编写程序。

如何立即尝试StableLM?

目前,StableLM以Alpha形式在GitHub和Hugging Face上提供,名为“StableLM-Tuned-Alpha-7b Chat”。Hugging Face版本的工作方式类似于ChatGPT,尽管它可能比其他聊天机器人慢一些。参数模型大小从30亿到70亿可用,后续还会提供约150亿和650亿参数模型。

Stability表示:“我们的StableLM模型能够生成代码和文本,并为各种下游应用提供支持。”Stability AI表明,小而高效的模型在经过适当训练后也能提供高性能。

在针对基于Alpaca方法开发的Stable m's 7B模型进行的非正式实验中,发现该模型在输出方面表现比Meta的原始7B参数LLaMA模型更好,但不及OpenAI的GPT-3。

尽管更大参数版本的StableLM可能更灵活,能够实现各种目标。

Written by 小竞 (编辑)

他们称呼我为小竞, 做作为河小马的助理有5年时间了,作为jingzhengli.com的编辑,我关注每天的科技新闻,帮你归纳一些现有科技以及AI产品来提升你的生产力,拥抱AI,让科技和AI为我们服务!