最大开源社区Hugging Face发布HuggingChat 有300亿参数
ChatGPT的平替真来了!最大开源社区Hugging Face发布了HuggingChat,有300亿参数。
HuggingChat既开源,还免费,互联网上随随便便就能用。
HuggingChat官网:hf.co/chat,秒秒钟体验ChatGPT完美平替。
如果说,ChatGPT是苹果iOS系统,那么,HuggingChat将成为开源版的Android。
不得不说,接入亚马逊之后的Hugging Face,有点猛啊。
HuggingChat VS ChatGPT
在深入介绍之前,先来点刺激的。
我打开网页干的第一件事,就是挑衅HuggingChat,问了问他和ChatGPT有什么区别。
HuggingChat条分缕析,不偏不倚。
数据来源:虽然两者都使用在大量文本数据上训练的机器学习模型,但HuggingChat(Open Assistant)比ChatGPT有更广泛的来源,不仅包括书面内容,还包括用户查询和真实人物产生的对话。
规模和复杂度:ChatGPT由比Open Assistant更大、更复杂的神经网络架构组成,允许更大的处理能力和更多可能的任务。
可定制性:Open Assistant为第三方服务提供了定制选项和集成,使开发者能够根据他们的需要定制功能。这个功能在ChatGPT中并不存在。
用户界面/集成:开放式助手提供了API、webhooks和其他整合方法,使对话式人工智能更容易嵌入到不同的应用程序中。
开源和协作:与ChatGPT不同,OA是开源的,这意味着来自世界各地的贡献者可以分享知识,完善模型,改进其功能,并合作开发新的功能。
在进一步试探HuggingChat之前,有一件事情要先厘清。那就是前一阵子发布的Open Assistant(插一个Open Assistant那篇文章的链接)和HuggingChat的联系,以免有读者以为这是两个完全不同的东西。
「Open Assistant和HuggingChat是两个相关的项目,都涉及使用深度学习技术和海量文本数据开发对话式人工智能。
它们的共同根源是Hugging Face Inc.,该研究实验室专注于在文本生成和理解、计算机视觉和NLP等领域建立行业领先的人工智能技术。此外,HuggingChat代表的是聊天机器人或语言模型等方面,而Open Assistant则建立在这一基础之上,具有额外的特性和功能,旨在更好地适用于更一般化的问题和答案。
因此,从本质上讲,你可以把它们看作是同一棵树上的分支,源于实现与机器自然语言交流的互补方法。」
这下基本的关系搞清了,我们可以进一步深入了解HuggingChat了。
高质量聊天模型
乍一看,HuggingChat的界面和ChatGPT还挺像的。
左边都是一个有最新聊天记录的分栏,浏览器窗口的大部分被当前的聊天记录所占据。目前,用户还不能登录并保存他们的对话,以便在更长的时间内反复使用。
与ChatGPT一样,HuggingChat可以根据要求生成自然语言或特定格式的文本,开箱即用。
它还可以生成代码,包括语法突出显示。题外话,这个功能是谷歌在推出Bard之后几周后才加上去的。
而HuggingChat聊天机器人的响应速度也很快,与GPT-3.5-turbo基本持平。
唯一美中不足的是,因为训练尚不完整,HuggingChat在处理英文上要比中文好太多。毕竟,每一种语言都需要大量的语料去训练。
像上面介绍过的,HuggingChat基于OpenAssistant,OA去年12月启动,在当时就是ChatGPT的开源竞争者。与HuggingChat聊天界面类似。
自2023年4月中旬以来,一直保持免费。
这两种模型的语言系统都是基于一个300亿个参数的LLaMA模型。与Alpaca或Vicuna一样,这些模型是经过「指令微调」的,与ChatGPT不同,没有通过人类反馈的强化学习(RLHF)进行改进。
根据Hugging Face的说法,OpenAssistant并不是最后的终点。
最终,该平台希望通过一个单一的中心来提供「所有」高质量的聊天模型。
更新于:3个月前