MindSpore is a new open source deep learning training/inference framework that could be used for mobile, edge and cloud scenarios.
MindSpore is a new open source deep learning training/inference framework that could be used for mobile, edge and cloud scenarios.
MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。 文档:https://mindformers.readthedocs.io/zh-cn/latest/
Ascend apex adapter
九天-139MoE-Chat是中国移动自主研发的语言大模型,实现数据构建、预训练、微调、部署全链路核心技术自主创新;行业定向增强,数据上融合通信、能源等8大行业专业知识,提供定制化行业大模型;安全可靠,建立数据质量评估体系,加强数据处理和清洗,优化DPO算法,加强人类价值观对齐,实现指令安全响应。该模型在主流公开测试集测评结果上,已达GPT-4的90%水平,适配国产算力生态,助力企业实现智能化产业
Mirror of https://huggingface.co/meta-llama/Llama-2-7b-hf
最近一年贡献:7 次
最长连续贡献:2 日
最近连续贡献:1 日
贡献度的统计数据包括代码提交、创建任务 / Pull Request、合并 Pull Request,其中代码提交的次数需本地配置的 git 邮箱是 Gitee 帐号已确认绑定的才会被统计。