EN
—集团旗下网站—

首页  >  新闻中心 >  集团动态

2018年国际大学生类脑计算大赛总决赛即将开幕
发布日期 : 2018-10-11 16:03:28 点击数:
字体大小:[大]    [中]    [小]

总决赛大幕拉开

想欣赏决赛队伍极具创意与科技性的作品吗?

想聆听类脑智能领域专家的特邀报告吗?

想和行业内各界人士近距离接触吗?

2018年国际大学生类脑计算大赛

总决赛即将开幕!

你想要的都在这!

决赛时间:2018年10月13-14日(周六、日)

决赛地点:清华大学

开幕式、作品答辩:罗姆楼3层报告厅

作品路演:罗姆楼11层报告厅

大赛概况

类脑计算借鉴了人脑存储和处理信息的方式,是基于神经形态工程发展起来的新计算技术。其与现代计算机相结合,将构成人工通用智能的基础,并大幅提高智能处理能力,最终促进计算机、大数据、机器人、人工智能等的发展。当前这项研究在世界范围内蓬勃推进,但该领域目前仍处于起步阶段,尚未形成公认的技术方案。全球都面临巨大的机遇与挑战,也是各国信息产业实现跨越式发展的契机。

2018年国际大学生类脑计算大赛由清华大学主办,同时邀请到了教育部科技司和中国科协企业创新服务中心担任本届大赛的指导单位,赛事层次进一步提高。大赛旨在提升大学生积极参与类脑计算的研究兴趣,激发学生团队创新热情,培养类脑计算人才,提高应用创新能力,在全球范围内推动类脑智能应用领域的大众创业与万众创新,打造繁荣的类脑计算生态圈。

本届大赛,吸引了国内外高校和研究所的接近300支队伍报名参赛,参赛作品涵盖硬件、算法、软件等多个方面,经过严格的筛选与评审,组委会评选出16支队伍晋级。这16支队伍将于本周末在清华大学争夺决赛百万大奖。

大赛奖项

特等奖:1支,30万元/支

一等奖:2支,10万元/支

二等奖:3支,  6万元/支

三等奖:4支,  3万元/支

优秀奖:6支,  2万元/支

预赛二等奖:16支,5000元/支

大赛日程

【决赛晋级规则】第一天下午路演为入围赛,评委老师将从16支队伍中选出12支队伍晋级第二天的答辩环节,晋级的队伍将角逐最高大奖。

决赛作品简介

用于联觉可视化的弱监督注意力对抗生成网络

Weakly Supervised Attention Inference GAN for Synesthesia Visualization

重庆交通大学

联觉是一种感知现象,在日常生活中,当看到或听到一段文字,大脑通常会自动脑补出跟文字相对应的画面。基于这种现象,本课题的研究便是如何使计算机模仿大脑,通过文字生成对应的图像。目前跨领域中已有的生成模型并没有很好地学习和利用注意力机制进行生成。因此,本文将模仿联觉中的cross activation机制来完成这一任务。

近年来,深度生成模型得到了广泛的关注,其中,GAN在文字生成图像领域有较为可行的应用先例。本课题将基于GAN,结合之前研究者的工作,提出了用于联觉可视化的弱监督注意力对抗生成网络,该网络可以有效减少网络跨域转换任务的难度且提高生成图像的质量。

Automatic Speech Recognition:A Neuromorphic Approach

National University of Singapore(新加坡国立大学)

Inthis work, we propose a novel neuromorphic ASR framework. Inspired by theanatomical structure of the human cochlea and psychology studies of auditoryattention, we design and implement a neuromorphic auditory front-end. Thisfrontend integrates the biologically plausible cochlear filter bank, auditorymasking and information-theory supported neural threshold coding to effectivelyand efficiently encode the spectral information. Moreover, to reliablyrecognize the underlying spike pattern, we propose a membrane-potential basedaggregate-label learning algorithm, namely MPD-AL. This algorithm allowsbridging the gap between the feature occurrences and the delayed feedback,commonly known as the temporal credit assignment problem.  Furthermore, we introduce a data-drivendynamic decoding scheme for practical classification tasks, of which theaggregate labels are hard to define.  Toenhance the system noise robustness, we incorporate the multi-conditiontraining scheme, which can guarantees a promising classification accuracy underreal world noisy environment.

Synthesizing Cognition in Ultra-Low-Power Neuromorphic Electronic Systems

University of Zurich(瑞士苏黎世大学)

Mixed-signalanalog/digital neuromorphic circuits are characterized by mWultra-low power consumption, massive parallelism, and real-time processingabilities. However, the unavoidable variance inherent to analog circuitry makesit challenging to carry out robust neural computations. Here we present aSpiking Neural Network (SNN) architecture that enables robust learning andrecognition of visual pattern associations in noisy neural substrates and realworld environments. We propose a computational primitive in SNNs that takesadvantage of the existing variance to construct complex cognitive behaviorssuch as solving Constraint Satisfaction Problems. 

基于稀疏可逆映射的人脑视觉信息解码

Decoding visual information from brain activity using a sparse invertible mapping 

天津大学 

在早期视觉皮层中建立编码模型,来构建从视觉刺激的低级特征到大脑活动的可靠映射是近几年的一个研究热点。然而目前构建的映射往往不可逆,不能直接解码呈现刺激的视觉特征。为了解决此问题,我们根据初级视觉皮层中神经元的分布和激活规律,设计了一种特征提取方法,并基于稀疏框架来构建编码模型,从而使模型可以根据完备的特征表示来预测早期视觉皮层的活动。因此,映射变得精确而简洁,并可通过公式直接反转映射。使用该映射,我们设计了一种基于支持向量机的混合识别方法来识别被试所观测的图像,并在伯克利团队发布的fMRI数据集上进行测试。实验验证了编码模型的合理性,2名被试的识别准确率分别从92%,72%提高到98%,92%。

基于深度学习的轻量化音乐质感转换系统

A Lightweight Music Texture Transfer System

北京航空航天大学

你是否曾经羡慕过阿卡贝拉艺术家们用嗓音模仿各种音效的神奇技能?你是否曾经幻想过自己也能如专业的混音师一般,将乐器演奏的曲目与其它的声音素材搭配融合,成就一段自然优美的旋律?你是否憧憬过拥有这样一款工具,可以像给照片选取滤镜一样,自由地改变自己喜欢的音乐的风格与流派?

我们通过集成新型可重建音频信号频谱表征方法和转换网络,提出了一种端到端的音频质感转换算法;率先实现并在云端部署了满足实际生产要求的深度音乐质感转换系统,并可同时用于音乐质感抽取等其它下游任务;提出了一种新型评判方法,可用于全面地评估类似系统的转换质量。相关指标下,我们的MusiCoder系统达到了业余人类转换者的水平。

基于CNN与SNN混合的肝脏肿瘤区域识别与分割

Liver tumor recognition and segmentation based on CNN and SNN hybrid network

清华大学

团队提出了一种基于CNN与SNN融合的全新网络结构,将CNN的特征提取能力与SNN的低功耗、事件驱动等优点相结合,实现了对肝脏的CT/MRI图像进行自动肝轮廓划分、肿瘤区域识别与分割,在LiTS数据集上肝脏与肿瘤分割得分(Dice)分别为0.951与0.683与传统CNNs算法精度相仿,并且可以使用VR对分割结果进行三维展示,对医生的术前规划及教学工作提供便利。该算法在小于1分钟的时间内完成医生2小时的工作量,有望在术前规划环节大幅提升普通医生工作效率和准确率目前,团队在积极进行科研成果向临床转化,北京、西安、秦皇岛等城市均有合作医院和单位。

SNN Training and Inference for Sign Language Recognition

Syracuse University(美国雪城大学)

Humanbrain’s computational power and energy efficiency, and its ability to processreal-time sensor data are attractive. Thus, drawing inspiration from thearchitecture of the human, we develop FPGA based hardware spiking neuralnetwork architecture. We also trained an ANN model to perform sign languageclassification based on a data glove sensor data and mapped the ANN onto thetile-based neuromorphic architecture on FPGA utilizing a general framework tominimize conversion error from ANN to SNN.

基于脉冲神经网络的新型脑启发模型:从结构到应用

The spiking neural network based brain-inspired model: from structure to applications

浙江大学

我们提出了基于CNN和SNN的分层事件驱动(event-driven)模型,围绕这种新型的脑启发式网络结构设计了视觉图像分类任务和听觉音频分类任务,构建了包含数据采集,特征提取,CNN-SNN联合训练到最后模型给出分类结果,从算法到应用的脑启发模型。实验证明我们提出的CNN-SNN混合模型可以展现出SNN低功耗,计算量小,实时性强的特点,在小样本学习和大样本学习的任务上都可以表现出优越的性能,当训练集出现不同程度的噪声的时候,该模型也有很好的鲁棒性。最后从编码、学习、网络结构搭建以及应用等方面展望了该领域未来的研究方向。

基于脑电和眼动信号的多模态情绪识别系统

Multimodal Emotion Recognition System using EEG and eye movement signals

上海交通大学

本项目研究基于脑电和眼动数据的多模态情绪识别,针对多模态融合问题、个体差异问题、情绪脑电数据以及被试试验参与度这几个问题,我们分别提出了基于深度学习的多模态融合模型、基于迁移学习的跨被试模型训练算法、基于生成对抗网络的脑电数据生成模型以及基于眼动数据的注意力评估模型。结果表明:1.多模态数据取得了更好的识别结果,多模态数据具有互补性;2.基于迁移学习的算法能够减弱脑电个体差异性带来的影响;3.生成对抗网络可以生成脑电特征,结合生成的特征,可以改善情绪识别的准确率;4.通过对眼动注视轨迹的分析,可以评估被试注意力,反应被试实验的参与度。最后,我们搭建了实时情绪展示平台,将算法应用到实际。

基于学习者多模态反馈数据分析的教学评估系统

A teaching evaluation system based on learner multimodal feedback data analysis

University of Tsukuba(日本筑波大学)

在线教育因为缺乏有效交互、临场感低,教师从学生得到的反馈有限,也存在学生缺乏主动反馈动力、反馈过于主观、维度单一、缺乏时效性和针对性等不足。本系统使用学生在观看教学视频时的面部录像及弹幕文字组成的多模态数据,利用神经网络算法对面部表情、弹幕文字进行情绪分析,计算对应时间的教学趣味性和难易度,对视频的教学效果进行实时评估并呈现给教师。这种反馈方式不依赖于学生的主观汇报,数据更加客观、不增加学生负担,且与时间轴锚定的反馈方式具有较强的时间精度和内容针对性。在异步或同步在线教学辅助系统开发、相关弹幕视频分析方面具有广阔的应用场景。

基于情境信号的连续多任务学习

Continuous Learning of Context-dependent Processing  in Neural Networks

中科院自动化研究所

当前的神经网络所能学习的映射规则通常是单一且固定的,难以适应复杂变化的动态任务需求。大脑中的前额叶皮层会依据情境信息灵活处理当前的输入,执行不同的任务。大脑也能够序贯学习这些情境依赖的处理规则,从而使得其灵活性不断地增加。受大脑这些特性的启发,我们提出了正交权重修改(OWM)学习算法和类前额叶模块,使得神经网络具备了基于情境连续的学习不同映射规则的能力,从而能够使一个紧凑的系统逐渐学会执行多种不同的任务,实现了对于现有深度神经网络基本能力的重要提升。

基于神经脉冲的视觉编解码研究

Neural-Spike-based Research on Visual Encoding and Decoding

北京大学

为研究基于神经脉冲的视觉编解码,本队伍首先发展无监督的脉冲激发非负矩阵分解算法解密视网膜神经网络中的计算组件,然后使用CNN建模刺激如何转化为电活动的编码过程,进而使用深度学习方法解码脉冲信号并重建刺激。最后本工作基于NVIDIA嵌入式平台Jetsontx2进行了系统化集成,构建了实时编解码系统。

基于FPGA的异步脉冲神经网络电路设计

Design of asynchronous spike neural network circuit based on FPGA

中科院微电子研究所 

脉冲神经网络是实现类脑计算的一个重要方法,并且脉冲神经网络是比深度神经网络更接近生物脑运行原理的算法。本设计基于FPGA和异步电路设计了一种脉冲神经网络的专用加速电路,包含24个脉冲计算核心,每个核心有256个神经元和4096个突触,共6144个神经元和98304个突触;支持脉冲神经网络的前向传播算法,通过24个脉冲计算核心互相广播脉冲可以实现6144个神经元中任意两个神经元连接。本设计采用二相位捆绑类型的异步电路设计方法,在Xilinx ZYNQ UltraScale+ZUC102开发,在 100 MHz的工作频率下功耗为1.6008W,其中47%为静态功耗,53%板上实现为动态功耗,每个计算核心的动态功耗约33mW。

基于强化学习的古诗生成系统

Reinforcement Learning-based Poetry Generation System

北京理工大学    

本作品设计了一种更具有趣味性,也更具有类脑特征的作诗机。不同于传统的作诗机需要用户输入诗歌的主题或者韵律格式,该作诗机充分考虑到中国传统诗歌所具有的意境美,只需要用户输入一幅能表达诗歌主题的图画即可生成诗句。该过程更加符合古代诗人触景生情、由感而发的写作动机,是作诗机形式上的创新。系统架构上,考虑到图像和语义之间可能存在的复杂映射关系,对传统的encoder-decoder架构做出改进,以更适合从图像到复杂文本的生成任务。

基于类脑架构的双目联动凝视跟踪飞行平台

Brain-inspired Standoff Tracking Platforms Based on Binocular Coordination of PTZ Cameras

国防科技大学    

本作品受人眼双目联动机理启发,构建基于类脑智能架构的双无人机协同跟踪定位系统,利用双无人机的空间分布优势,通过相机联动控制,实现对机动和隐蔽目标的凝视跟踪。

为了实现双目联动从人眼固定基线向无人机时变基线的迁移,本作品基于 Hering原则构建了共轭辐辏坐标系,根据是否满足线性化条件分别设计了偏格式联动控制器和全格式联动控制器。进一步,构建双“无人机-吊舱” 系统,通过局部遮挡下的跟踪实验对联动算法的鲁棒性进行了验证。

基于发育网络模拟的听觉系统算法研究

Research on auditory system algorithm based on Developmental Network

郑州大学

基于人类听觉系统的生理学原理,构建了一种听觉模型即“MFCC(Mel-frequency cepstral coefficients) +发育网络( Developmental Network, DN)”。

该模型使用MFCC对听觉外周即耳蜗进行模拟,MFCC提取语音信号特征作为发育网络的感知输入。

发育网络隐含层(Y层)的5层网络,分别模拟人类听觉系统中耳蜗核,上橄榄核,下丘,内侧膝状体和上丘的功能。特别地,上丘(Y5)用于对语音上下文进行整合。实验结果表明该模型具有较好的语音识别功能。

大赛组织

指导单位:教育部科技司  中国科协企业创新服务中心

主办单位:清华大学

承办单位:清华大学科研院  清华大学类脑计算研究中心

协办单位:清华控股有限公司  北京灵汐科技有限公司  IEEE清华大学学生分会

顾问委员会

主任:
     薛其坤 (清华大学)

副主任:
       谭铁牛 (中国科学院自动化研究所)

委员:
     郝   跃 (西安电子科技大学)
     黄   如 (北京大学)
     刘   明 (中国科学院微电子研究所)
       蒲慕明 (中国科学院神经科学研究所)
     孙家广 (清华大学)
     王飞跃 (中国科学院自动化研究所)
     吴朝晖 (浙江大学)
     徐炜遐 (国防科技大学)
     杨雄里 (复旦大学)
     郑南宁 (西安交通大学)
     祝世宁 (南京大学)
     Kang L Wang (UCLA)

         Karlheinz Meier (Heidelberg University)

         R. Stanley Williams (HP Inc.)

         Steve Furber (The University of Manchester)


组织委员会

主任:
     张   钹 (清华大学)

副主任:
     黄铁军(北京大学)
     骆清铭(华中科技大学)
     施路平(清华大学)
     徐   波(中科院自动化所)

委员:
     毕国强 (中国科学技术大学)
     曹立宏 (中国传媒大学)
     曾   兵 (电子科技大学)
       陈云霁 (中国科学院计算技术研究所)
     龚怡宏 (西安交通大学)
     吕宝粮 (上海交通大学)
     缪向水 (华中科技大学)
     潘   纲 (浙江大学)
     史传进 (复旦大学)
     宋志棠 (中科院上海微系统与信息技术研究所)
     唐华锦 (四川大学)
     吴   思 (北京师范大学)
     李海洲 (NUS)
     王智刚 (University of Kent)
     谢   源 (UCSB)
     杨建华 (UMass Amherst)
     张建伟 (Universität Hamburg)

大赛官网

https://contest.cbicr.org

清华大学类脑计算研究中心官方网站

https://www.cbicr.tsinghua.edu.cn

联系人:王老师

联系电话:(+86)010-6278 7245

联系邮箱: contest@cbicr.org

官方微信公众号

(来源:类脑计算研究中心CBICR)