We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
我们已发布基于Llama-2的相关模型,模型大小包括7B和13B,以及长上下文版7B-16K和13B-16K模型。
项目地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2
【新】已发布长上下文版模型,支持16K上下文长度,并可通过NTK方法扩展至24K+
目前已发布13B级别的模型,效果优于一代项目(本项目)的Plus/Pro-13B,部分指标超过Plus/Pro-33B,推荐使用相关模型的用户迁移到我们的二代模型上
目前已发布7B级别的模型,效果优于一代项目(本项目)的Plus/Pro-7B和Plus/Pro-13B,推荐使用相关模型的用户迁移到我们的二代模型上
目前暂无33B级别二代模型(meta还没发布),可先使用一代Plus/Pro-33B模型。
The text was updated successfully, but these errors were encountered:
No branches or pull requests
我们已发布基于Llama-2的相关模型,模型大小包括7B和13B,以及长上下文版7B-16K和13B-16K模型。
项目地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2
【新】已发布长上下文版模型,支持16K上下文长度,并可通过NTK方法扩展至24K+
目前已发布13B级别的模型,效果优于一代项目(本项目)的Plus/Pro-13B,部分指标超过Plus/Pro-33B,推荐使用相关模型的用户迁移到我们的二代模型上
目前已发布7B级别的模型,效果优于一代项目(本项目)的Plus/Pro-7B和Plus/Pro-13B,推荐使用相关模型的用户迁移到我们的二代模型上
目前暂无33B级别二代模型(meta还没发布),可先使用一代Plus/Pro-33B模型。
The text was updated successfully, but these errors were encountered: