如果想要在WeNet放出来的checkpoint模型u2pp_conformer_exp上增量训练,是要用WeNetspeech/run.sh, 还是可以用aishell/run.sh呢?还是说将下载的ckpt/train.yaml放到WeNetspeech/conf里面,然后跑WeNet speech/run.sh ?
关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
已结题
如果想要在WeNet放出来的checkpoint模型u2pp_conformer_exp上增量训练,需要怎么做?
收起
- 写回答
- 好问题 0 提建议
- 关注问题
微信扫一扫点击复制链接分享
- 邀请回答
- 编辑 收藏 删除
- 收藏 举报
1条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
语音之家 2022-08-03 15:31关注都可以,但需要修改配置文件和模型匹配,可能也需要调整学习率等参数,建议尽量使用WeNetspeech对应的脚本。
本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏举报
微信扫一扫点击复制链接分享
评论按下Enter换行,Ctrl+Enter发表内容
报告相同问题?
提交
- 2023-06-02 00:09流音寻帆_jonesky的博客 将本地准备好的F:/wenet数据集/0529_0531_merge/chuli下的train、dev、test中的text、wav.scp两个文件分别拷贝到远程/hy-tmp/wenet/examples/aishell/s0/data下对应的train、dev、test文件夹下。将准备好的数据文件...
- 2023-04-26 23:06沐小轲的博客 Wenet如何对模型接着训练?
- 阿正的梦工坊的博客 在使用 DeepSpeed 训练得到的 checkpoint 时,直接加载保存的模型路径可能需要一些额外的步骤,而不仅仅是像指定 model_name 一样加载 Hugging Face 提供的预训练模型。 以下是加载和评估 DeepSpeed Checkpoint 的...
- 2024-07-28 18:33@李思成的博客 在虚拟环境中继续后续的配置,我在base环境中安装了cuda11.3和cuda12.1,wenet代码均可运行。使用cuda11.3,安装conda install pytorch==1.12.1 torchvision==0.13.1 torchaudio==0.12.1 cudatoolkit=11.3 -c ...
- 2020-12-30 14:10z2539329562的博客 import tensorflow as tf tf.reset_default_graph() ...model_file = tf.train.latest_checkpoint(r"E:\temp") saver.restore(sess, model_file) print(sess.run(global_step)) print(sess.run(add_0))
- 2025-04-30 08:45大模型玩家的博客 如果你真的想学习大模型,请不要去网上找那些零零碎碎的教程,真的很难学懂!你可以根据我这个学习路线和系统资料,制定一套学习计划,只要你肯花时间沉下心去学习,它们一定能帮到你!
- 2024-08-24 14:27帅小柏的博客 一篇文章教你如何修改样例aishell-1,训练自己的个性化语音模型!
- 2025-05-22 16:57AI浩的博客 预训练是指在大量无标签数据上进行训练,使模型学习到一些基础的语言表示和知识。常见的预训练方法包括自回归语言模型(如GPT系列)、自编码器等。这些方法通过在大规模语料库上训练,使模型能够理解语言的语法、...
- 2024-08-26 17:36牧羊女说的博客 关于WeNet的训练,官方已经给出了比较详细的步骤,不过实际在使用的时候,还是多少会踩几个坑,所以这里就结合官网推荐步骤以及自己的经验,来整理一下训练流程。我用的是AIShell数据集,所以这里就以AIShell为例来...
- 2019-04-26 09:33miangangzhen的博客 在把BERT从estimator框架中抽出来的过程中,学习整理了一下加载模型的两种方式。 请注意,两种方式中,调用sess.run(tf.global_variables_initializer())的顺序是不一样的,否则会导致: 加载失败,使用随机初始化...
- 2024-06-17 22:38古猫先生的博客 数据并行训练中的效率考虑:在数据并行的设置下,由于所有GPU上运行的是模型的相同副本,只需保存一个GPU上的模型实例即可,无需为每个GPU都保存一份完整的内存状态。顺序读取检查点文件:通常情况下,检查点文件是...
- 2024-08-04 18:43Stuomasi_xiaoxin的博客 本篇文章主要围绕解决深度神经网络模型在进行大型网络模型训练的时候,训练中断应该如何基于之前训练的模型继续训练,还有深度学习模型训练如何在中断服务器ssh连接之后,仍然能够继续保持训练。
- 2020-11-22 12:31weixin_39843782的博客 2、生产环境:(1)部署在移动终端上的(例如ios、android),场景:图像识别等。用freeze_graph合成pb和ckpt文件,然后用optimize_for_inference、quantize_graph进行优化。再用TensorFlowInferenceInterface调用...
- 2022-07-26 22:27语音之家的博客 WeNet的核心目标是为语音识别提供一套高性能易部署的工业级解决方案,完全聚焦于语音识别任务,同时对于常用的语音识别应用场景提出了一套效果极佳的端到端解决方案,而不去提供各类模型方案的大而全的集合。...
- 2023-12-27 09:00LLM.的博客 当然以上的缩放方案依旧存在精度损失,以及当矩阵中存在outlier时,这个精度损失会被放大,例如当tensor中绝大部分取值在1以下,有几个值在100+,则缩放后,所有1以下的tensor信息都会被round抹去。因为use_cache是...
- 2020-11-29 10:15weixin_39531582的博客 2、生产环境:(1)部署在移动终端上的(例如ios、android),场景:图像识别等。用freeze_graph合成pb和ckpt文件,然后用optimize_for_inference、quantize_graph进行优化。再用TensorFlowInferenceInterface调用...
- 2024-08-02 09:40帅小柏的博客 run.sh脚本用于处理 AISHELL-1 数据集的整个训练和测试流程。我们将逐步分析脚本中的每个部分...此脚本不仅为模型训练提供了便利,也为用户自定义和扩展训练流程提供了基础。希望本教程能帮助你顺利完成语音识别项目!
- 2024-11-14 16:16AI大模型-海文的博客 但在实战过程中除了进行调参以外,往往还会保存多个checkpoint,所以需要进行模型选择,选出其中的最优模型。今天以模型选择为主题来给大家进行实战分享,希望能对大家的实战有所帮助,早日成为一名优秀的AI炼丹师。
- 没有解决我的问题, 去提问