undefined

徐明星   副研究员

无线信息网络与传输技术团队

通信地址:北京市海淀区清华大学FIT楼1-304

联系电话:13661367738

Email:xumx@tsinghua.edu.cn



教育背景

1990年9月-1995年7月  清华大学计算机系  计算机科学与技术专业  本科  工学学士学位

1995年8月-1999年7月  清华大学计算机系  计算机应用技术专业  研究生  工学硕士学位、工学博士学位

工作履历

1999年8月-2003年12月  清华大学计算机系  讲师

2003年12月-2018年6月  清华大学计算机系  副教授、副研究员  曾任计算机系党委研究生工作组组长、党委副书记、分工会主席

2018年6月-2020年7月  清华大学党委组织部副部长  副研究员

2020年7月-  清华大学北京信息科学与技术国家研究中心  副研究员

学术兼职

中国计算机学会语音对话与听觉专委会委员

中国人工智能学会情感智能专委会委员

中国心理学会音乐心理学专委会委员

研究领域

计算机应用技术、人工智能、人机交互

研究概况

主要研究方向包括语音识别、说话人识别、语音和音乐情感识别、跨媒体情感计算、互联网话语情感识别等,重点是面向安全可信身份认证的真实意图真实情感研究。

针对对话语音的动态情感变化,研究提出多尺度融合的情感检测方法。针对真实环境的语音情感识别,研究提出了一种多特征多分类器的决策级别融合的语音情感识别框架。从时间多尺度和空间多尺度的不同角度,研究音频信号时间序列的结构信息提取与建模,基于层次化认知机制,提出了一种基于注意力机制融合多尺度上下文信息的动态维度情感识别算法。以长短时记忆模型LSTM为基础,融合深度神经网络和注意力机制,把多尺度信息的融合过程与不同尺度下的上下文建模过程整合到一个算法框架中,对上下文信息和结构信息的建模过程进行联合优化,实现对维度动态情感建模与识别。

跨媒体情感计算方面,聚焦跨媒体数据的认知表征与语义描述之间的关联关系,提出了一种基于异构熵的跨媒体非监督特征学习算法,融合文本、图片、网络行为等跨媒体数据,用于预测社交用户的情感风格(性格)。

在鲁棒说话人识别研究方面,聚焦因信道差异、情感状态变化以及发音方式不同等因素引起的训练与识别的不匹配,研究开发了一个多种发音方式的说话人识别语音库,提出基于群集的说话人模型合成方法,提出情感属性投影算法来提高说话人识别对情感变化的鲁棒性。

奖励与荣誉

2017年清华大学优秀党建与思想政治工作者

2016年高等学校科学研究优秀成果奖(科学技术)二等奖(排名8/19)

2014年清华大学教学成果二等奖

2014年清华大学学生实验室建设指导奖

2011年清华大学清韵烛光-学生最喜爱的老师

2006年清华大学林枫辅导员奖

2005年清华大学青年教师教学优秀奖

2005年北京市教育教学成果(高等教育)一等奖(排名3/5)

学术成果

[1] 提出了基于高斯混合模型超向量的情感表征方法、基于ANN的决策融合方法,成果申请一项专利获得授权公开。在ACII Asia 2018组织的国际音视频情感识别竞赛(MEC 2017)音频情感识别子任务上获得冠军。

[2] 提出了基于双向LSTM的多时间尺度的回归分析算法和基于SVR的多情感空间尺度的回归分析算法。在2015年MediaEval组织的音乐情感识别评测任务中排名第一。

[3] 提出了一种新的录音重放检测算法框架,在ASV Spoof 2019中获得防录音攻击挑战任务中排名第一。

[4] 语音情感识别相关成果在“基于动态密码语音的无监督身份认证系统”中应用于检测用户真实意图,中国电子学会组织的科技成果鉴定评审意见认为该身份认证系统“整体技术达到了国际领先水平”。

人才培养

李心星(清华大学优秀工程硕士毕业生,2017)

张晓桐(计算机系优秀工程硕士毕业生,2019)