学院研究生受邀参加中国计算机应用大会并做宣讲

来源: 计算机与人工智能学院 作者:汤启凡、谢瑞清编辑人:谢瑞清发稿时间:2021-10-28浏览次数:

10月15日,计算机与人工智能学院研究生张君宇、陈志恒、唐经、郑传锟、余晓鹏、汤启凡,本科生董雅婷等受邀参加第36届中国计算机应用大会(CCF NCCA 2021),并对自己的研究成果进行宣讲。

会议期间,张君宇宣讲了自己的论文“级联跨域特征融合的虚拟试衣”,提出了一种基于U-Net的生成器,该生成器在U-Net解码器上添加级联的空间和通道注意力模块,从而实现了在着装人体和扭曲服装的局部特征和全局特征的跨域融合。

陈志恒宣讲了自己的论文“基于SGD的决策级融合维度情感识别方法”,提出一种基于随机梯度下降法(Stochastic Gradient Descent,SGD)的决策级融合维度情感识别方法。在语音和文本模态的基础上增加动作捕捉数据(Motion Capture,Mocap),结合多任务学习机制,利用不同的深度学习模型分别对语音、文本和Mocap特征进行训练,并基于决策级融合方法实现多模态维度情感识别。

郑传锟宣讲了自己的论文“基于时空特征融合的语音情感识别”,提出通过膨胀卷积网络(Dilated-CNN)提取语音频谱图的空间信息,添加双向长短期记忆神经网络(BLSTM)提取时序信息,并进行时空特征融合;针对语音中含有大量与情感无关的特征,通过将对数梅尔频谱图的三个通道作为输入,减少情感无关因素的影响,并添加注意力机制选取情感权重大的时域信号。

余晓鹏宣讲了自己的论文“基于改进Inception结构的知识图谱嵌入模型”,提出了InceE模型,使用了一种改进的Inception结构。该结构使用混合空洞卷积替代标准卷积,以提高特征交互信息捕捉能力;并使用残差网络结构,以减少特征信息丢失。

唐经宣讲了自己的论文“基于多步态特征融合的情感识别”,提出了自适应融合的方法,将骨骼时空信息与骨骼旋转角度结合,提升了现有模型的情感识别精度。模型利用自编码器,学习人类行走时的骨骼旋转信息,利用时空图卷积神经网络提取的骨骼点时空信息,将骨骼旋转信息与时空信息输入自适应融合网络融合,得到最终特征进行分类。

汤启凡宣讲了自己的论文“基于CPM和亲和度向量的两阶段服装关键点检测方法”,研究了多类别、姿态复杂、遮挡等服装关键点检测难点,提出基于亲和度向量的卷积姿态机实现服装关键点检测,利用关键点间空间约束以提高检测的准确度。

董雅婷,计算机与人工智能学院大二本科生,指导教师熊炜老师,首次参加智能无人车比赛,并以全国第6的成绩获得优胜奖。

经过此次学术交流和无人车比赛,展示了学院在科研和前沿技术方面的成果。同时了解学习其他高校的最新研究,通过聆听周志华等知名专家的报告,为今后的工作指明方向。在会后的自由交流过程中,也有其他高校的专家对我们的工作提出了宝贵的意见,对自身有很好的指导意义。

本次会议由中国计算机学会(CCF)主办,CCF计算机应用专业委员会、华北电力大学扬中智能电气研究中心承办,江苏省扬中高新技术产业开发区管委会、江苏省计算机学会、华北电力大学、大连大学、华东交通大学、兰州交通大学协办。来自全国各地的近600名专家学者共聚中国河豚之乡扬中,拥抱智能新时代。

大会为期两天,共设置1个主会场、9个分论坛。清华大学计算机系教授、中国工程院院士郑纬民,欧洲科学院外籍院士、南京大学教授周志华等多名国内顶级专家作特邀报告。还有50余位来自国内外计算机领域及其行业应用领域的专家学者、企业家出席了本次会议。大会期间,还设有工程认证研讨会、八大专业领域论坛、科技成果展示、中国计算机应用技术大赛、学术论文交流等形式多样的活动。