主題教育 保定校區 English

基于長期時序信息的視頻時空行爲定位識別

來源:科學技術處、電子與通信工程系發布時間:2020-07-24

【講座题目】基于長期時序信息的視頻時空行爲定位識別

【講座时间】2020 年 7 月 28 日(星期二) 上午 9:10

【講座地點】網絡直播:https://live.bilibili.com/22339632

【主 人】林巍峣,上海交通大學教授

【主講人简介】

上海交通大学教授,分别于2003年和2005年获得上海交通大学学士和硕士学位,并于 2010 年获得美国华盛顿大学西雅图分校获得博士学位。曾在包括 Motorola, Real Networks 和 Thomson Technology 在内的多家公司的研究机构担任 Research Intern。主要研究方向包括计算机视觉、视觉监控、视频行为理解、视频及语义信息编码等。 林博士现任 IEEE Trans. Image Processing, IEEE Trans. CSVT、 IEEE Trans. ITS 等期刊编委及 ICPR’20、BMVC’19、MM&/xshd/39;18、ICIP&/xshd/39;19、 ICME&/xshd/39;18 等领域主席,并任IEEE MMSP、IEEE MSA TC、IEEE MMTC 等学术专业委员会委员。在相关领域共发表 IEEE Transactions 系列及 CVPR、ICCV、AAAI 等权威期刊和会议论文 40 余篇,获专利 18 项。近年来,林博士相继获得 2018 教育部“**”学者、ICME’19 多媒体学术新星(Multimedia Rising Star)、2019 上海市五四青年奖章等荣誉。

【內容簡介】

时空行为定位与识别是行为识别中的关键问题。现有的主流方法主要利用在单帧或者短序列中的密集检测框以及短时的时序信息进行时空定位。上述方法由于未能充分利用较长时序中的信息,往往效果有局限。在本次报告中,我们将介绍我们在时空行为定位识别中的两个工作。首先,我们在建模行为时,使用行为的长时间时序信息,并直接预测行为所在的时空三维管道。此外,我们进一步提出一个动态采样的方法来对行为定位的过程进行加速。实验结果显示, 我们的方法可以在提升3倍以上速度的情况下,在标准数据集上达到当前最优的效果。

返回