对于许多商业和研究实体来说,能把AI模型部署到本地,自然也解决了机密数据泄露的担忧。
财联社4月20日讯(编辑 史正丞)当地时间周三(19日),开发AI图像生成工具Stable Diffusion的创业公司Stability AI宣布,发布并开源该团队训练的大语言模型StableLM。
(来源:Stability AI)
根据该团队的公告,目前StableLM的“阿尔法版本”中拥有30亿和70亿参数的模型已经可以从GitHub等开源平台上下载,后续还将推出150亿至650亿参数的版本。与Stable Diffusion类似,StableLM同样支持知识共享4.0协议,开发者可以在遵守协议的情况下,将这个模型用于商业或研究活动。
这家公司在去年发布的Stable Diffusion,使得AI“文生图”赛道成为AIGC领域商业化前景最为明朗的行业。
Stability AI介绍称,StableLM可以生成文本和代码,并将助力一系列下游应用。这个模型建立在经典训练集The Pile的新实验训练集上,token数量翻了3倍至1.5万亿,公司也将在适当的时候发布数据集的详细信息。尽管公布出来的模型参数量很少,但数据集的丰富性使 StableLM在会话和编程任务中表现出惊人的高性能,展现了小型高效模型如何通过适当的训练提供高性能。
(效果演示,来源:Stability AI)
与GPT-4等超级大模型不同,Stability AI的产品可供每一个人下载并部署在本地。这种做法也曾遭到一些非议,因为彻底开源意味着这些模型极有可能被用于恶意目的,例如撰写钓鱼链接的文案和协同软件攻击等。
对此,Stability AI在周三的公告中也予以回应,强调开源模型是为了促进透明度和培养信任。研究人员可以“深入了解”以验证性能、研究可解释的技术、识别潜在风险并帮助制定保障措施。公共和私营部门可以针对自己的应用程序 “微调”这些开源模型,无需共享敏感数据或放弃对AI功能的控制。
当然,如此“大方开源”的背后,Stability AI也背负着沉重的营收压力。据新兴财经媒体Semafor 4月初报道,Stability AI去年底刚刚融到1亿美元的资金正接近“快速烧完”,公司CEO Emad Mostaque的领导风格也遭到内部质疑。