个人资料

头像

姓名: 陈晨

学位: 工学博士

毕业院校: 哈尔滨工业大学

邮件: chenc@hrbust.edu.cn

办公地点: 新主楼G818

电话: 0451-86390648

出生年月: 1990-05-03

学科: 计算机科学与技术

相关教师

个人简历

陈晨,1990年生人,工学博士(后),副教授,博士研究生导师。黑龙江省高层次人才,黑龙江省自然科学基金优青。现为国家自然科学基金通讯评议专家、教育部学位中心评审专家,黑龙江省计算机学会-青年工作委员会副秘书长、黑龙江省计算机学会-计算机应用专业委员会执行委员、黑龙江省人工智能学会听觉智能专委会委员,曾任中国计算机学会-YOCSEF哈尔滨学术委员,担任计算机学报、声学学报、IEEE TASLP、ESWA、ASOC、NEUNET、SPECOM、NEUCOM、IEEE SPL、ICASSP、INTERSPEECH等国内外著名期刊及会议审稿人。本科、硕士、博士均毕业于哈尔滨工业大学,长期从事计算机听觉、语音信号处理、音频信息分析、模式识别与机器学习等领域的研究工作。近年来,主持国家级、省部级等科研项目7项,获省级科技奖1项,以第一作者/通讯作者在Top期刊、CCF推荐高水平期刊及领域内顶级国际会议等发表学术论文20余篇,以第一发明人获授权发明专利10余项(转化2项,参与制订国家标准3项,出版译著1部。

教育经历

时间

学校

学科/专业

学位

2015.09-2020.04

哈尔滨工业大学

计算机科学与技术

工学博士

2013.09-2015.07

哈尔滨工业大学

计算机科学与技术

工学硕士

2009.08-2013.07

哈尔滨工业大学

计算机科学与技术

工学学士


工作经历


时间

单位

部门

职务

2022.09-至今

哈尔滨理工大学

计算机科学与技术学院

副教授

2020.09-2022.08

哈尔滨理工大学

计算机科学与技术学院

讲师

2020.05-2024.12

哈尔滨理工大学

计算机科学与技术博士后流动站

博士后


研究方向

计算机听觉、模式识别、机器学习、深度学习等:

  ·语音信号处理:说话人识别、伪造语音检测、语种识别、哼唱检索、语音特征表示等;

  ·音频信息分析:声学事件检测、音频场景识别、音频信息检索等。

承担项目


[1] 复杂场景下的声学事件检测方法研究,黑龙江省自然科学基金-优秀青年项目,2024.12-2027.12,在研,主持.

[2] 声纹欺诈检测中潜在语义信息感知方法研究,国家自然科学基金,2022.01-2024.12,已结题,主持.

[3] 复杂声学环境下声纹重放检测方法研究,中国博士后科学基金,2021.11-2024.11,已结题,主持.

[4] 基于线索驱动的声纹欺诈检测方法研究,黑龙江省自然科学基金,2021.07-2024.01,已结题,主持.

[5] 基于自监督学习的声纹识别理论与方法研究,黑龙江省博士后专项经费,2020.11-2022.12,已结题,主持.

[6] 基于互信息挖掘的声纹识别理论与方法研究,黑龙江省省属高校基本科研业务费专项项目,2020.10-2023.10,已结题,主持.

[7] 面向场景鲁棒性与安全性的说话人识别及重放检测方法研究,黑龙江省省属高校基本科研业务费专项项目,2021.10-2024.10,已结题,主持.


教学工作

博士生课程:音频信息处理技术

研究生课程:机器学习

本科生课程:人工智能基础、机器学习

招生信息

一、招生信息
  课题组招收博/硕士研究生,欢迎对科研充满热情、对计算机听觉感兴趣、有志于读博/研深造的同学积极报名!课题组氛围融洽,注重科研创新,为同学们提供良好的学习与实践平台。每位同学均将受到系统的科研训练,将从理论学习与研究、编程与动手能力开发、论文与专利撰写等角度进行培养,并提供对应的计算资源与硬件平台,确保每位同学均有所收获。申请的同学请将简历、个人业绩等材料发至chenc@hrbust.edu.cn。


【招收要求及待遇】

(1)总体要求

  具有清晰的读博/研目标,具备自律、耐心和独立工作的能力,具备良好的英文读写能力与编程能力,熟练使用Python等编程语言。

(2)博士招生

  招收计算机听觉、智能信息处理、机器学习等方向的博士研究生,每年招收1~2名。优先考虑本组学生,或具有一定科研基础的学生,单人单议。

(3)硕士招生

  招收计算机科学与技术、软件工程、电子信息(计算机技术、软件工程)学科的硕士研究生,每年招收4~5名。优先考虑本科为计算机科学、人工智能、软件工程等相关专业的学术型硕士。每年5月中旬会以论文阅读与讲解的形式进行进组面试,面试前会提前两周布置英文论文,需制作PPT进行讲解。


【培养方式】

(1)一对一、手把手:从论文阅读、方法构思、编程实验、结果分析,到具体论文与专利撰写,各个环节一对一、手把手指导。

(2)多方位驱动:采用问题驱动、方法驱动、任务驱动的方式进行培养管理,学生定期汇报进度,探讨并进行学术交流。

(3)肝帝精神:科学研究并不需要很高的智商与惊人的天赋,但需要有兴趣、有毅力、有耐性。

(4)头脑风暴:科学研究中涉及大量的凝练思考,能够提升自身发现并解决问题的能力,这对选择继续读博深造,或进入国企/大厂的同学均具有重要作用。

(5)劳逸结合:推崇健康快乐的学习方式和环境,定期组织健康有益的活动。


【实验室地址】

  新主楼G813、G818。


【团队公开资源】

  http://github.com/splab-HRBUST


二、指导学生情况


【博士研究生】

『2024级』

  ·李文文


『2025级』

  ·栗嘉鸿


【硕士研究生】

『2019级』

  ·刘修言(毕业答辩优秀,发表JCR Q1期刊论文、授权发明专利,华为)

  ·肜娅峰(毕业答辩优秀、国家奖学金、校优秀毕业生,发表多篇CCF-T1类期刊论文、授权发明专利,海康威视)

  ·王宁(毕业答辩优秀,发表中文核心期刊论文,海康威视)


『2020级』

  ·季超群(毕业答辩优秀,发表EI期刊论文、授权发明专利,温州商学院)

  ·蓝海乐(毕业答辩优秀,授权发明专利比亚迪)

  ·宋耀祖(发表Top期刊论文、授权发明专利,华为德科)


『2021级』

  ·卜宇琳(发表CCF-C类期刊论文、授权发明专利,深信服)

  ·代博涵(发表Top期刊论文、授权发明专利,中关村泛联移动通信技术创新应用研究院)

  ·李文文(授权发明专利,本实验室攻读博士学位)


『2022级』

  ·白博超(授权发明专利中电金信)

  ·陈勇(国家奖学金,发表Top期刊论文、授权发明专利,金山办公)

  ·孙文泽(安克创新)


『2023级』

  ·李微微

  ·麦凯钧

  ·仪志鑫

  ·周佳


『2024级』

  ·冯雨泓旭

  ·李东源

  ·邵明丽

  ·王奕蘅


『2025级』

  ·常昊文

  ·常晶重

  ·董松昆

  ·王闫静




专利成果

一、授权发明专利

[1] 陈晨,麦凯钧,杨成义等. 一种基于关联特征判别性融合网络的伪造语音检测方法及系统,2024.11.05.

[2] 陈晨,蓝海乐,卜宇琳等. 基于调整余弦互信息估计的语种识别方法,2024.10.25.

[3] 陈晨,代博涵,白博超等. 基于双向注意力残差网络的语音欺诈检测方法,2024.09.20.

[4] 陈晨,陈勇,李微微等. 基于深层时序特征表示的语种识别方法,2024.09.17.

[5] 陈晨,宋耀祖,代博涵等. 基于重构群延迟-常数Q变换语谱图的声纹欺诈检测方法,2024.09.10.

[6] 陈晨,白博超,麦凯钧等. 基于时序多尺度特征表示学习的伪造语音检测方法及系统,2024.08.09.

[7] 陈晨,卜宇琳,陈勇等. 基于概率有监督总变化空间学习的语种识别方法,2024.08.09.

[8] 陈晨,季超群,李文文等. 一种基于特征差异最大化的说话人识别方法,2024.08.09.

[9] 陈晨,李文文,孙文泽等. 基于区分性字典与分类器联合学习的说话人识别方法,2024.05.07.

[10]陈晨,刘修言,蓝海乐等. 基于层叠双向时序池化的语种识别方法,2023.11.24.

[11]陈晨,肜娅峰,陈德运. 一种基于互信息估计的说话人识别方法,2022.07.05.

[12]韩纪庆,陈晨,郑贵滨等. 基于总变化空间与分类器联合优化的说话人身份识别方法,2021.03.23.


二、国家标准

[1] 信息技术 可扩展的生物特征识别数据交换格式 第1部分:框架,标准号:GB/T 45284.1-2025,排名:3/48,实施日期:2025.10.01.

[2] 信息技术 移动设备生物特征识别 第5部分:声纹,标准号:GB/T 37036.5-2023,排名:18/21,实施日期:2023.10.01.

[3] 信息技术 生物特征识别呈现攻击检测 第2部分:数据格式,标准号:GB/T 41815.2-2022,排名:5/37,实施日期:2023.05.01.


出版著作

[1] 杜世橋(日, 著), 杨秋香, 陈晨等(译). PyTorch开发入门——深度学习模型的构建与程序实现, 机械工业出版社, 2022.03.

发表论文

部分第一/通讯作者论文:

[18] Chen Chen, Jia Zhou, Yong Chen,et al. Fine-tuned Whisper-based semantic-temporal aggregation networks for sound event classification[J].Pattern Recognition, 2026, 179: 113706.(SCI,Top期刊,CCF-B类期刊,IF=7.6).

[17] Kaijun Mai, Chen Chen*, Yuhongxu Feng, et al. Dual-level principal component fusion networks for synthetic speech detection[J]. Information Fusion, 2026, 127: 103738.(SCI, Top期刊, IF=15.5).

[16] Kaijun Mai, Chen Chen*, Yuhongxu Feng, et al. Associative-discriminative fusion networks for synthetic speech detection[J]. Circuits, Systems, and Signal Processing, 2026: 1-22.(SCI).

[15] 陈晨, 仪志鑫, 李东源等. 基于潮涌卷积神经网络的说话人确认[J]. 电子与信息学报,2026, 48(2): 806-817.(EI, CCF-T1类期刊).

[14] Weiwei Li, Chen Chen*, Yong Chen, et al. Language identification based on multi-scale feature recursive fusion and adaptive loss[J]. The Journal of Supercomputing, 2025, 81: 1312.(SCI,JCR Q2,CCF-C类期刊).

[13] Chen Chen, Yong Chen, Weiwei Li, et al. Deep temporal representation learning for language identification[J]. Neural Networks, 2025, 182: 106921.(SCI, Top期刊,CCF-B类期刊).

[12] Chen Chen, Bohan Dai, Bochao Bai, et al. Deep correlation network for synthetic speech detection[J]. Applied Soft Computing, 2024, 154: 111413.(SCI, Top期刊).

[11] Chen Chen, Yaozu Song, Bohan Dai, et al. Twice attention networks for synthetic speech detection[J]. Neurocomputing, 2023, 559: 126799.(SCI, Top期刊,CCF-C类期刊).

[10] 陈晨, 季超群, 李文文等. 基于互信息自适应估计的说话人确认方法[J]. 电子科技大学学报, 2023, 51(1): 125-131.(EI).

[9] Xiuyan Liu, Chen Chen*, Yongjun He. Temporal feature extraction based on CNN-BLSTM and temporal pooling for language identification[J]. Applied Acoustics, 2022, 195: 108854.(SCI,JCR Q1).

[8] 陈晨, 韩纪庆, 陈德运等. 文本无关说话人识别中句级特征提取方法研究综述[J]. 自动化学报, 2022, 48(3): 664-688. (EI, CCF-T1类期刊).

[7]肜娅峰, 陈晨*, 陈德运等. 基于贝叶斯主成分分析的i-vector说话人确认方法[J]. 电子学报, 2021,49(11): 2186-2194.(EI, CCF-T1类期刊).

[6] 陈晨, 肜娅峰, 季超群等. 基于深层信息散度最大化的说话人确认方法[J]. 通信学报,2021, 42(7): 231-237. (EI, CCF-T1类期刊).

[5] Chen Chen, Jiqing Han. Task-driven variability model for speaker verification[J]. Circuits, Systems, and Signal Processing, 2020, 39(6): 3125-3144.(SCI).

[4] Chen Chen, Jiqing Han. TDMF: Task-driven multilevel framework for end-to-end speaker verification[C]. IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020: 6809-6813.(EI, CCF-B类会议, 领域内顶会).

[3] Chen Chen, Wei Wang, Yongjun He, et al. A bilevel framework for joint optimization of session compensation and classification for speaker identification[J]. Digital Signal Processing, 2019, 89: 104-115.(SCI, JCR Q2).

[2] Chen Chen, Jiqing Han. Partial least squares based total variability space modeling for i-vector speaker verification[J]. Chinese Journal of Electronics. 2018, 27(6): 1229-1233.(SCI, CCF-T1类期刊).

[1] Chen Chen, Jiqing Han, Yilin Pan. Speaker verification via estimating total variability space using probabilistic partial least squares[C]. Annual Conference of the International Speech Communication Association (INTERSPEECH), 2017: 1537-1541.(EI,CCF-B类会议,领域内顶会).


荣誉称号


基于低秩表示的图像分类自监督稀疏编码方法研究,吉林省科学技术三等奖(自然类),2021.


黑龙江省高层次人才.

黑龙江省自然科学基金优青.

哈尔滨工业大学优秀博士毕业生.