杭州电子科技大学·计算机学院

科学研究

您当前的位置:首页  科学研究  学术动态

董明会教授、唐华锦教授学术报告会通知

阅读量:1786 发布时间:2017-05-22 08:30:47

 

报告时间:2017年5月23日(周二)下午13:30-15:30

报告地点:7教南121

联系人:方启明,fangqiming@hdu.edu.cn

欢迎广大师生参会学习交流!

 

报告一:Deep Learning Technologies in Voice Synthesis and Analysis

(语音合成与分析中的深度学习技术)

 

报告人:

Dr Minghui Dong, Scientist, Lab head of Voice Analysis and Synthesis, Institute for Infocomm Research, A-Star, Singapore

(董明会博士,新加坡科技研究局资讯通信研究院,语音分析与合成实验室主任)

 

报告摘要:

Spoken language processing is one of the key components of artificial intelligence. There has been a long history of speech processing research. In recent years, the research of speech processing developed very fast due to the application of deep learning technologies. In this talk, I will talk about the research in our lab and also the latest advances in the whole research community. I will cover the following aspects about speech processing:  (1) speech synthesis: speech synthesis is the process to convert text into speech signal. The process includes text understanding, prosody modelling, acoustic modelling, and speech signal generation.   I will talk about the traditional machine learning methods for the problems, and also present the latest advances of deep learning technologies in speech synthesis.(2) Voice conversion and personalized voice synthesis: voice conversion technology is able to convert one speaker’s voice into another speaker’s voice.Personalized voice synthesis aims to produce voice of a person from text. The traditional voice conversion methods and the latest deep learning methods will be discussed.  (3) Singing synthesis:  It is more challenging to process singing voice than spoken voice due to the dynamic nature of human singing. I will talk about the process to generate singing voice from musical score. Also, I will introduce techniques to improve human singing voice. Speech processing technology can evenconvert spoken voice into singing voice.(4) Emotionalspeech modelling:Emotion is an important factor of human intelligence. How to recognize and generate emotion is quite important in human machine interaction. Earlier work and most recent work on emotion modelling will be discussed.  In addition, I shall talk about the major issues in speech and language processing, and also discuss some of important deep learning technologies in natural language processing that may help spoken language processing.

(口语语言处理是人工智能的重要组成部分之一,语音处理的研究有很长的历史。近年来,随着深度学习技术的应用,语音处理技术发展迅速。本次报告将谈及我们实验室的工作以及学术界的一些最新发展。主要内容包括以下方面:(1) 语音合成:语音合成是把文字转换成为语音信号的过程,包括文本理解、韵律建模、声学建模、语音信号生成等部分。报告中将讲到传统的机器学习方法,以及最新的深度学习方法在语音合成中的应用。(2) 声音转换和个性化语音合成:声音转换是把一个人的声音转换为另一个人的声音,个性化合成则是从文字生成某个人的声音。报告中会讲到传统的做法和最新的深度学习方法。(3) 歌唱合成:歌唱合成比普通的说话合成更困难,因为歌声信号中有更大的动态变化范围。报告会讲到从乐谱合成歌声,还会讲到歌唱信号校正技术。该技术不仅能提高歌唱信号的准确度,甚至可以把朗读的语音变为歌唱信号。(4) 情感语音建模:情感是人类智能的重要元素,如何识别和生成情感是人机交互的重要内容,报告将讲到传统方法和最新发展。另外,报告中将谈及对目前语音和语言处理主要问题的体会,也将讨论一些可能用于口语语言处理的深度学习技术。)

 

报告人简介:

Dr. Minghui Dong is currently a research scientist and the head of Voice Analysis and Synthesis Lab in Human Language Technology Department, Institute for Infocomm Research (I2R), Singapore. He also serves as the vice-president of Chinese and Oriental Languages Information Processing Society (COLIPS), a member-at-large of Asian Federation of Natural Language Processing (AFNLP), and the editor-in-chief of International Journal of Asian Language Processing (IJALP). He received BS degree from University of Science and Technology of China (USTC), MS degree from Peking University (PKU), and PhD degree from National University of Singapore (NUS) in 1992, 1995 and 2004 respectively. From Jul 1995 to Jul 1998, he worked as a research engineer in Peking University. From Jul 2011 to Nov 2014, he worked as a researcher in Infotalk Technology (Singapore). He joined I2R in Dec 2004. His research interests include spoken language processing, natural language processing, music and singing processing, emotion computing, and machine learning methods for language processing. He has co-authored more than 80 research papers in leading conferences and journals, edited 12 books/proceedings. He has been actively contributing to Asian and international research communities by serving as different roles in various conferences, including IJCNLP, ACL, InterSpeech, PACLIC, ISCSLP, IALP, CLSW, ICCPOL, COLING, APSIPA, etc.

(董明会博士目前在新加坡科技研究局资讯通信研究院任职研究科学家,担任语音分析与合成实验室主任。他同时也担任新加坡中文与东方语文信息处理学会副理事长、亚洲自然语言处理联盟理事、《亚洲语言信息处理国际期刊》主编。董博士1992年于中国科技大学计算机系获得学士学位,1995年于北京大学计算机系获得硕士学位,2004年于新加坡国立大学计算机系获得博士学位。1995年至1998年在北京大学从事模式识别和中文信息处理的研究工作,2001年至2004年在新加坡言丰科技公司担任研究员,从事多语言语音处理的研究开发工作。2004年12月加入新加坡科技研究局从事语言语音方面的研究和开发工作至今。他的研究领域包括语音处理、自然语言处理、歌唱与音乐处理、情感计算、深度学习方法等方面。他编辑出版书籍和论文集12本,在国际权威会议和期刊发表论文80多篇,获国际专利4项。他也积极参与国际学术活动,在各类国际会议担任程序委员会主席、会议主席、区域主席等职务,包括亚洲语言处理国际会议(IALP)、亚太语言信息计算会议(PACLIC)、中文口语语言国际研讨会(ISCSLP)、汉语词汇语义学国际研讨会(CLSW)、国际语音处理协会年会(InterSpeech)等。)

 

 

报告二基于神经形态的认知计算

 

报告人:唐华锦教授,四川大学计算机学院类脑计算研究中心主任,杭州电子科技大学计算机学院讲座教授

 

报告摘要:模拟大脑智能是计算机科学领域长久以来的目标,成为过去几十年人工智能发展的重要推动力。神经形态计算主要受神经科学发展推动,是建立在大脑神经电路结构和神经信息处理与神经脉冲计算原理上的新型计算模式,并最终以神经形态硬件方式来实现仿脑的认知计算与低功耗运算。虽然在神经元和突触层级神经科学已经取得了很大进展,但神经元之间如何通过网络连接取得复杂认知功能仍然缺乏了解。此外,从算法角度出发,尽管可以有效解决某一特定问题,却不能有效解决较为复杂的认知任务。本报告从神经形态认知计算领域需要解决的主要问题出发,介绍在神经信息编码,突触可塑性与学习算法及高级认知系统方面的进展。

 

报告人简介:唐华锦教授分别于1998年在浙江大学、2001年在上海交通大学获得学士学位和硕士学位,于2004年在新加坡国立大学电气与计算机工程系获得博士学位。2004-2006年在新加坡意法半导体公司担任研发工程师,2006-2008年在澳大利亚昆士兰大学脑科学研究所从事博士后研究,2008-2014年在新加坡科技研究局资讯通信研究院担任认知计算和机器人实验室主任。2014年至今,任四川大学计算机学院类脑计算研究中心主任。分别于2013年和2015年入选国家“青年千人计划”和四川省“千人计划”。唐华锦教授目前主要研究领域包括类脑计算、神经形态计算和认知系统、神经电路、智能硬件、智能机器人等。在类脑计算的神经计算理论和模型上取得了一些突破性进展,首次建立了基于大脑神经系统的空间定位和导航系统,即类脑的GPS系统,并首次成功运用于机器人领域。研究成果多次被国际著名科技评论如MIT Technology Review、Science Daily、PHYS.org专题报道。目前已在权威学术期刊和国际会议上发表论文70余篇,其中IEEE Transactions系列论文18篇,并获得2016 IEEE CIS TNNLS 最佳论文奖。唐教授目前担任国际一流学术期刊IEEE Transactions on Neural Networks and Learning Systems、IEEE Transactions on Cognitive and Developmental Systems、Frontiers in Neuromorphic Engineering副主编,多个国际会议主席和程序委员会主席,IEEE计算智能学会教育分委员会主席等。

×关闭