首页展会资讯信息安全资讯中科院自动化所左年明教授团队提出基于无线可穿戴脑电技术的个体身份识别

中科院自动化所左年明教授团队提出基于无线可穿戴脑电技术的个体身份识别

来源: 聚展网2023-12-07 23:43:18 896分类: 信息安全资讯
<head></head>
图片

带上无线无创的脑电采集装备,即可得到能够准确识别我们身份的专属“脑纹”。作为一种新型的生物特征,脑电信号与传统的“刷脸”、指纹识别相比在安全性、隐蔽性、防胁迫性等方面具有更大的优势,为身份识别认证提供了一种全新的解决方案。中国科学院自动化研究所左年明研究员团队在跨时间和跨认知场景下的脑电信号身份识别研究中取得重要进展。

图片

基于个人生物信息的身份识别和验证技术是利用个体人类所独有的唯一生物特征进行个体身份识别和验证的技术。目前,利用指纹、虹膜和人脸等个体生物信息进行身份识别的技术发展已经较为成熟,但仍存在一些限制,例如指纹和人脸等生物特征暴露在身体表面,非常较为容易被他人盗用。

图片

为了解决这个问题,近年来,利用人脑意识活动产生的神经内电活动信号进行个体身份识别的技术引起了广泛的兴趣。个体的脑电信号特征具有唯一性,并且在生物特征识别中相对于其他方式具有更高的安全性。脑电信号是由大脑意识活动过程产生的神经电信号,很难被其他人模仿和伪造,并且不依赖于外界诸多因素影响(外伤、光照等)。此外,脑电信号会随着情绪状态或者心理压力的变化而改变,因此可以在个体被强迫威胁的情况下自然而然地禁用,从而更加保护个体的信息安全。

重要的是,为了在实际应用场景中可使用脑电信号进行个体身份识别和验证,必须确保拟采用的脑电信号满足作为个体识别技术的一些关键特性,如普适性、持久性、唯一性、便捷性。普适性,指脑电作为生物识别特征应该适用于每一个人而不是特定人群(如常规人群、外伤、残疾及其他疾病等);持久性,指脑电的个体识别特征应该是稳定的,要求即使时间变化,脑电信号依然可以作为个体身份识别特征;唯一性,要求脑电信号特征对于每个不同的个体都是可区分的;便捷性,要求简单快速地从个体采集脑电信号,不需要佩戴复杂的脑电设备及准备工作。

针对上述要求,中国科学院自动化研究所脑图谱与类脑部门脑网络组研究中心左年明研究员领导的研究小组,采用公开数据集和基于自主研发的可穿戴脑电设备采集的数据集进行了逐一验证。研究团队提出了多损失联合域适应识别模型,充分考虑脑电跨时间和跨情绪带来的域间边缘概率分布差异和条件概率分布差异,在跨时间和跨认知场景下的个体身份识别取得了重要进展。

图片

研究团队首先在公开的正常人脑电信号数据集上建立了个体识别模型,时隔2-60天之后,再次采集同样群体的数据进行验证,结果证明基于62个通道信号的个体身份识别准确度在99%以上。此外,团队使用基于可穿戴式脑电技术采集的16个通道信号数据进行验证,识别准确度仍然达到96%。针对自主采集的不同情绪障碍的数据集,不同程度抑郁障碍患者群体(共61人)尽管情绪状态波动非常大(从轻度抑郁到重度抑郁),但是个体身份识别的准确度依然没有受到太大影响,准确度在97%以上。该研究充分证实了基于较少通道的可穿戴式脑电装备可以实现跨时间、跨认知状态的个体身份识别。该研究中临床数据采集所使用的无线无创可穿戴技术,为左年明研究员团队自主研发的脑认知检测-调控闭环装备的一个初级功能应用。该装备为无线无创可穿戴式设计(无需导电膏),完全实现了“即戴即用”的脑电采集需求,并具备脑信号检测、信号实时识别、个体化实时闭环高精度调控的完整双向闭环脑机接口功能,可实现“定点、定向、定量”的脑认知功能检测-调控。该项技术为本领域国际首创,有望在临床神经精神疾病的检测和治疗以及无创双向脑机接口等领域开展应用,部分型号已经实现小批量生产,获得了第三方医疗检验机构的电气性能和安全性检验,目前已经在近10家临床医院和其他特殊场景测试使用。

参考资料:

巴西圣保罗线缆线材展览会

Wire Brasil

举办地区:巴西

开闭馆时间:09:00-18:00

举办地址:Centro de Exposições Imigrantes Rodovia dos Imigrantes, Km 1,5 São Paulo – SP

展览面积:30000㎡

观众数量:20000

举办周期:2年1届

主办单位:杜塞尔多夫展览公司、德国汉诺威展览

声明:文章部分图文版权归原创作者所有,不做商业用途,如有侵权,请与我们联系删除
来源:聚展网
展位咨询
门票预订
展商名录
巴西圣保罗线缆线材展览会
Wire Brasil
2025年10月29日-10月31日
展位申请
门票预订
展商/电子会刊
  • 电话
    展位咨询:0571-88683357
    观众咨询:0571-88611413
  • 客服
  • 我的
  • 门票
  • 展位 合作