机器翻译方向 博士四年级 Google scholar Email: yoohao.zhang@gmail.com
主要研究方向:1.语音翻译,2.多任务学习,3.多语言神经机器翻译,4.模型加速。 模型加速主要分为针对于底层张量并行计算库进行加速以及模型去冗余计算两个方向;多语言神经翻译方向主要利用一个模型翻译多个任务。目前已将论文及系统运用在IWLST,WMT等多个评测任务中并取得优异成绩。
曾多次担任NeurIPS、ACL、AAAI、EMNLP、ICASSP等会议的评审。
面向语音翻译的软对齐方法 (ICASSP2024) | 2023.05-2023.09 |
使用软对齐方式解决模态差异问题。 | |
面向语音识别的多尺度建模 (CCL2023) | 2023.02-2023.05 |
使用多尺度建模方式增强端到端语音识别编码,进而提升性能。 | |
语音翻译评测任务 (IWSLT2023) | 2023.02-2023.04 |
参与IWSLT2023 离线英中端到端语音翻译比赛,主要运用了多任务学习策略、多轮伪数据方法和基于预训练的音频切分方法。 | |
动态语音特征压缩 (Interspeech2023) | 2022.05-2023.01 |
语音前端的特征压缩方法探索。 | |
语音翻译多任务学习 (EMNLP2023) | 2022.06-2023.06 |
多任务学习在语音翻译系统的探索。 | |
语音翻译评测任务 (IWSLT2022) | 2022.02-2022.05 |
参与IWSLT2022 离线英中端到端语音翻译比赛,主要运用了SATE 和 MSP-ST方法。 | |
语音翻译预训练 (AAAI2023) | 2021.03-2021.11 |
探索如有利用无标注的文本和语音数据及有标注的语音识别和翻译数据构建端到端语音翻译系统。论文主要在腾讯北京信息安全部门实习期间完成。 | |
小设备模型运算库支持 | 2020.11-2020.12 |
将NiuTensor计算应用到ARM架构GPU上,利用ARM computing library中的OpenCL 接口改写NiuTensor中的操作,并在Mali架构的芯片上运行。 | |
多语言模型迁移量化分析 (Under review) | 2020.06-2021.03 |
在多语言模型中量化不同语言迁移情况并采取策略优化。 | |
机器翻译评测任务 (WMT2020) | 2020.03-2020.05 |
带队参加三个富资源任务(英日,日英,英中),以及两个稀缺资源任务(泰米尔语到英语,因纽特到英语)。其中英日,日英获得自动评价第一名,英日,因纽特语获得人工评价第一名。 主要运用的技术为:多语言模型,大容量模型,迭代finetune策略,Top-p采样生成伪数据生成策略,利用语言模型进行领域适应等。 | |
结构搜索 (ACL2020) | 2019.10-2019.12 |
将神经结构搜索应用到神经机器翻译上。具体为:利用可微分的方法在语言模型上预训练好一个CELL内部和CELL之间的结构,然后将结构运用到神经机器翻译任务上。 主要在IWSLT英语到越南语任务上获得性能提升。 | |
神经机器翻译解码加速 (CCMT2019) | 2019.06-2019.08 |
对于Transformer模型中解码计算过程中解码端的注意力计算进行加速,具体为,利用模型中每一层的注意力分布计算其信息熵作为其所含信息量,发现各层信息量差异较大。 根据这种现象设计压缩比例对解码端注意力计算的参数进行压缩,在不影响性能的前提下,提升约10%的解码速度。 | |
机器翻译评测任务 (WMT2019) | 2019.02-2019.04 |
负责古吉拉特与到英语的翻译任务,利用迁移学习,语言语法特点,多种回译方法,ensemble搜索策略,多特征重排序,模型上利用DLCL深层网络。获得自动评价,人工评价第一名。 | |
NiuTensor深度学习开源底层计算库 | 2018.1-至今 |
1.针对于底层的CUDA计算更新维护。2.多卡训练支持。3.小设备计算支持。 4.神经机器翻译运算库加速,设计针对于GPU的并行计算算法以及针对不同张量设计不同存取的算法以及指令集优化。 | |
项目地址:https://github.com/NiuTrans/NiuTensor |