登录
注册
开源
企业版
高校版
搜索
帮助中心
使用条款
关于我们
开源
企业版
高校版
私有云
Gitee AI
NEW
我知道了
查看详情
登录
注册
代码拉取完成,页面将自动刷新
捐赠
捐赠前请先登录
取消
前往登录
扫描微信二维码支付
取消
支付完成
支付提示
将跳转至支付宝完成支付
确定
取消
Watch
不关注
关注所有动态
仅关注版本发行动态
关注但不提醒动态
1
Star
0
Fork
665
hongye_zhou
/
mindformers
forked from
MindSpore
/
mindformers
确定同步?
同步操作将从
MindSpore/mindformers
强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
删除在远程仓库中不存在的分支和标签
同步 Wiki
(当前仓库的 wiki 将会被覆盖!)
取消
确定
代码
Issues
0
Pull Requests
0
Wiki
统计
流水线
服务
Gitee Pages
质量分析
Jenkins for Gitee
腾讯云托管
腾讯云 Serverless
悬镜安全
阿里云 SAE
Codeblitz
我知道了,不再自动展开
标签
标签名
描述
提交信息
操作
v1.2.0
# MindSpore Transformers 1.2.0 RELEASE NOTE 以下为MindSpore Transformers (以下称为MindFormers) 套件 1.2.0 版本的变更日志,相较于1.1.0版本有以下关键新特性和bug fix。 ## 新特性 - **新增模型支持带框架推理**:新增支持模型包含Qwen1.5_7b、Qwen1.5_14b、Qwen1.5_72b、Llama3_70b、Yi_34b等。 - **新增模型支持bfloat16训练**:新增支持模型包含Qwen1.5_7b、Qwen1.5_14b、Qwen1.5_72b、Llama3_70b、Yi_34b等。 - [AdamW优化器](https://gitee.com/mindspore/mindformers/pulls/3310):新增AdamW优化器,对齐Megatron AdamW。 - **支持MindIE进行服务化部署**:[MindIE](https://www.hiascend.com/software/mindie),全称Mind Inference Engine,是华为昇腾针对AI全场景业务的推理加速套件。MindFormers新增对MindIE的对接,承载在模型应用层MindIE-LLM,通过MindIE-Service对MindFormers中LLM模型进行部署。 - [长序列训练](https://gitee.com/mindspore/mindformers/tree/r1.2.0/docs/feature_cards/Long_Sequence_Training.md):新增支持长序列训练特性,通过在配置yaml文件中设置`parallel_config.context_parallel`开启序列并行,当前支持32k至256k。 - [断点续训权重加载2.0](https://gitee.com/mindspore/mindformers/tree/r1.2.0/docs/feature_cards/Resume_Training.md):断点续训场景下,新增指定续训权重功能,新增故障恢复下进行权重完整性校验并自动加载最新完整权重。 - [权重自动转换2.0](https://gitee.com/mindspore/mindformers/tree/r1.2.0/docs/feature_cards/Transform_Ckpt.md):自动权重转换新增多进程转换。 ## 新模型 以下为新支持模型: | 模型 | 规格 | |-----------------------------------------------------------------------------------------------|---------------------------------------------------------------| | [Mixtral](https://gitee.com/mindspore/mindformers/tree/r1.2.0/research/mixtral/mixtral.md) | Mixtral_8x7b(32k预训练、推理) | | [Qwen1.5](https://gitee.com/mindspore/mindformers/tree/r1.2.0/research/qwen1_5/qwen1_5.md) | Qwen1.5_7b(预训练、微调、推理)、Qwen1.5_14b(预训练、微调、推理)、Qwen1.5_72b(预训练) | | [Llama3](https://gitee.com/mindspore/mindformers/tree/r1.2.0/research/llama3/llama3.md) | Llama3_70b(预训练、微调) | | [Deepseek](https://gitee.com/mindspore/mindformers/tree/r1.2.0/research/deepseek/deepseek.md) | Deepseek_33b(微调) | | [Yi](https://gitee.com/mindspore/mindformers/tree/r1.2.0/research/yi/yi.md) | Yi_6b(微调)、Yi_34b(微调) | | [QwenVL](https://gitee.com/mindspore/mindformers/tree/r1.2.0/research/qwenvl/qwenvl.md) | QwenVL_9.6b(微调、推理) | ## Bugfix 在当前版本发布周期内,我们进行了模型/功能/易用性/文档等诸多方面的Bugfix,在此仅列举部分修复内容: - [!3345](https://gitee.com/mindspore/mindformers/pulls/3345):修复`Linear`在`transpose_b=False`时传入正确`weight`仍报错问题。 - [!3277](https://gitee.com/mindspore/mindformers/pulls/3277):修复使用梯度累积时,`warpper`传入了错误的`micro_batch_num`问题。 ## 贡献者 感谢以下人员做出的贡献: Chenhua Geng,heqinglin,koukairui,renyujin,shuchi,陈心锐,陈子恒,冯浩,胡思超,黄磊,黄生帅,黄勇,黄子灵,倪钰鑫,苏海波,李子垠,杨星宇,牛君豪,张森镇,张又文,谭纬城,吴致远,杨星宇,刘群,曹宇麟,方泽华,金仁操,刘群,李永文,钱驾宏,吴昊天,杨璇,汪家傲,范益,陈昱坤,李洋 欢迎以任何形式对项目提供贡献!
980171a
2024-07-24 16:34
下载
v1.1.0
# MindSpore Transformers 1.1.0 RELEASE NOTE 以下为MindSpore Transformers (以下称为MindFormers) 套件 1.1.0 版本的变更日志,相较于1.0.2版本有以下关键新特性和bug fix。 ## MindSpore版本适配 该版本对MindSpore2.3版本进行了适配,该版本支持MindSpore版本为MindSpore 2.3.0-rc2。 ## 新特性 - [msrun启动方式](https://gitee.com/mindspore/mindformers/blob/r1.1.0/README.md#方式一使用msrun方式启动仅适用于配套mindspore23以上版本): msrun是动态组网启动方式的封装,用户可使用msrun以单个命令行指令的方式在各节点拉起多进程分布式任务,并且无需手动设置动态组网环境变量,并且无需依赖第三方库以及配置文件。 - [LoRA权重合并](https://gitee.com/mindspore/mindformers/tree/r1.1.0/docs/feature_cards/Transform_Lorackpt.md): LoRA权重合并将LoRA分支权重合并到原模型对应权重,合并后权重可以使用原模型直接进行推理。 - [生成任务min_length控制](https://gitee.com/mindspore/mindformers/pulls/2267): 生成任务支持最短生成长度min_length和最短生成tokens数min_new_tokens配置,用以控制最短生成长度,防止模型生成长度过短。 - [ckpt权重转换至torch bin权重](https://gitee.com/mindspore/mindformers/tree/r1.1.0/docs/feature_cards/Convert_Weight.md): 使用Mindformers训练得到的ckpt权重,可以通过提供的权重转换功能转换成torch bin权重,用于推理评估等下游任务。 - [GLM3支持多轮对话训练](https://gitee.com/mindspore/mindformers/tree/r1.1.0/docs/model_cards/glm3.md#多轮对话格式数据集): GLM3模型新增多轮对话训练,提供多轮对话的数据集处理方式。 - **训推一体**: 训推一体通过使用高性能算子库,在MindFormers框架中下发性能优化、tiling cache、动态shape、PagedAttention等方式,以在线推理方式达成高效的推理性能,实现训练到推理零成本迁移。目前语言类模型均支持训推一体。 - **BF16训练**:支持模型包含Llama2_7b、Llama2_13b、Llama2_70b、wizardcoder、glm3_6b、qwen_7b、qwen_14b等。 - [学习率优化](https://gitee.com/mindspore/mindformers/pulls/2301): 新增学习率CosineAnnealingLR和CosineAnnealingWarmRestarts,及对存量学习率warmup steps及decay steps配置,详见[!2300](https://gitee.com/mindspore/mindformers/pulls/2300)。 - [qwen系列支持8k序列长度训练](https://gitee.com/mindspore/mindformers/blob/r1.1.0/research/qwen/qwen.md#全参微调): qwen系列支持8k序列长度进行全参微调,支持规模为7b及14b。 ## 新模型 以下为 research 模型: | 模型 | 规格 | |-----------------------------------------------------------------------------------------------|---------------| | [deepseek](https://gitee.com/mindspore/mindformers/tree/r1.1.0/research/deepseek/deepseek.md) | deepseek_33b | | [Llama3](https://gitee.com/mindspore/mindformers/tree/r1.1.0/research/llama3/llama3.md) | llama3_8b | | [mixtral](https://gitee.com/mindspore/mindformers/tree/r1.1.0/research/mixtral/mixtral.md) | mixtral_8x7b | | [qwen_1.5](https://gitee.com/mindspore/mindformers/tree/r1.1.0/research/qwen1_5/qwen1_5.md) | qwen1.5_72b | | [yi](https://gitee.com/mindspore/mindformers/tree/r1.1.0/research/yi/yi.md) | yi_6b, yi_34b | ## Bugfix 在当前版本发布周期内,我们进行了模型/功能/易用性/文档等诸多方面的Bugfix,在此仅列举部分修复内容: - [!2918](https://gitee.com/mindspore/mindformers/pulls/2918): 修复training_dataloader中在开启isAlign时数组index问题,修复多进程下host内存占用过多问题。 - [!2360](https://gitee.com/mindspore/mindformers/pulls/2360): 修复CrossEntropy损失函数在logits数值较大时计算结果不对问题。 - [#I9BETP](https://gitee.com/mindspore/mindformers/issues/I9BETP):修复PolynomialWithWarmUpLR学习率与PyTorch实现不一致问题。 ## 贡献者 感谢以下人员做出的贡献: Chenhua Geng, dingxu (E), heqinglin, koukairui, renyujin, shuchi, 陈心锐, 陈子恒, 冯浩, 胡桂鹏, 胡思超, 黄磊, 黄生帅, 黄勇, 黄子灵, 焦毅, 林鑫, 倪钰鑫, 彭康, 苏海波, 田凯, 李子垠, 杨星宇, 牛君豪, 张森镇, 张小雯, 张又文, 赵栢杨, 周胜凯, 朱国栋, 张银霞, 谭纬城,吴致远,杨星宇,刘群,曹宇麟,方泽华,金仁操,刘群,李永文,钱驾宏,吴昊天,杨璇,汪家傲 欢迎以任何形式对项目提供贡献!
598e154
2024-05-16 15:01
下载
v1.0.2
mindformers v1.0.2 release
45d1fa5
2024-04-19 23:24
下载
v1.0.1
mindformers v1.0.1 release
9b6e397
2024-03-19 13:19
下载
v1.0.0
mindformers v1.0.0 release
d25941f
2024-01-23 20:58
下载
v0.6.0
v0.6.0
66360eb
2023-07-29 10:43
下载
v0.3
v0.3
0d7c4d0
2023-04-12 19:03
下载
v0.2_rc
new framework,compatible with huggingface
c62b9d7
2023-01-18 09:11
下载
v0.1.1
v0.1.1
f7ef440
2022-11-22 19:44
下载
v0.1.0
The first release transformer
01ed9a3
2022-08-15 09:36
下载
下载
请输入验证码,防止盗链导致资源被占用
取消
下载
Python
1
https://gitee.com/hong-ye-zhou/mindformers.git
[email protected]
:hong-ye-zhou/mindformers.git
hong-ye-zhou
mindformers
mindformers
点此查找更多帮助
搜索帮助
Git 命令在线学习
如何在 Gitee 导入 GitHub 仓库
Git 仓库基础操作
企业版和社区版功能对比
SSH 公钥设置
如何处理代码冲突
仓库体积过大,如何减小?
如何找回被删除的仓库数据
Gitee 产品配额说明
GitHub仓库快速导入Gitee及同步更新
什么是 Release(发行版)
将 PHP 项目自动发布到 packagist.org
评论
仓库举报
回到顶部
登录提示
该操作需登录 Gitee 帐号,请先登录后再操作。
立即登录
没有帐号,去注册