nhà cái k8新闻动态新闻动态

ai,黑科技-nhà cái k8

2021-07-19

7月16日,megtech 2021 旷视技术开放日圆满结束!

14大demo亮相金隅园区

在炎炎夏日一同感受来自旷视的ai热情

让我们一同回顾技术开放日的精彩亮点吧


十年磨一剑,今朝试锋芒

今年是旷视成立的第十年,也是旷视持续创新,不断探索和拓展人工智能技术边界十年。

十年来,旷视在学术上发表85篇顶级会议论文,在竞赛上斩获40项冠军......

 

但是关于ai行业的灵魂拷问,从没有停止:

ai有没有用?ai在哪里用?ai易不易用?

旷视给出了自己的答案,剑指ai未来


旷视首席科学家、旷视研究院院长孙剑:人工智能技术价值不断进阶跃迁



旷视研究员张祥雨:基础科研是 ai 创新突破的基石



旷视研究员范浩强:从科研到落地,算法正在创造越来越大的价值



旷视研究员周而进:算法生产能力决定算法价值上限


14大demo,直面“灵魂拷问”

本次开放日上展示了旷视最新研发的14大demo,让我们一同近距离感受ai的魅力


repvgg:复兴极简神经网络架构,革新模型设计方法论 

repvgg是一个结构简单,性能优异的神经网络基本模型。repvgg模型在速度和性能上都达到了当前最优水平,研究成果已经被cvpr-2021接收。目前旷视研究院已将repvgg的模型代码开源,github star数量超过1, 800。


 

  • yolof:挑战经典,目标检测架构颠覆性创新

yolof(you only look one-level feature)是旷视最新设计出的目标检测器,已被cvpr-2021收录。旷视大胆抛弃检测任务中传统的特征金字塔网络(feature pyramid networks),从底层原理出发,探索出解决检测问题的全新方法。


  

  • 全卷积全景分割:极简算子一次性完成复杂图片的全部解析,实现全场景、全类别、全像素点的分割

旷视研究院创新设计出一种结构简单、运行高效的算法模型panoptic fcn(全称为panoptic fully conventional network),使用全卷积形式统一地表达和预测物体及周边环境,从而实现准确高效的全景分割。目前,该论文已被计算机视觉顶级学术会议cvpr 2021收录并被评为oral 论文,源代码已开源。


  

  • 室内视觉定位与导航:室内实时精准定位,一键导航,直达目的地

室内视觉定位导航的难点在于实时、准确地获取用户的相机位姿。旷视研发的室内视觉定位导航技术,综合运用激光视觉联合建图(大场景视觉特征点图)、纯视觉定位和ar特效导航,基于厘米级建图算法和cvpr 2021双冠视觉定位算法,快速准确地完成定位与导航。


 

  • 非接触式掌纹识别:走遍天下,身份尽在“掌”握

掌纹识别是一种具有独特性的生物特征识别方式,主要通过提取和比对掌纹图像中的掌纹特征完成身份识别。它具有更私密、安全的优势。旷视凭借其在屏下指纹和面部识别关键点多年的技术经验积累,通过深度学习算法,有效提升了掌纹识别在强光、干冷等困难场景下的准确率。


 

  • 自定义手势识别:手势识别个性化定义,实时交互随心所欲

旷视全新研发的自定义手势识别算法,最大的不同在于“自定义”。它通过精准实时的手势关键点检测与跟踪,支持用户根据不同使用场景的需求,随时录入并个性化定义新手势,支持静态手势和动态手势的实时录入,亦可支持多手检测。


 

  • 单目黑光:仅用一个摄像头,实现星光亮度下的可视化

通过模仿人眼“视锥细胞”与“视杆细胞”分别感受色彩和亮度的原理,结合神经网络技术,仅用一个摄像头,即可实现星光亮度环境下(0.1lux)的可视化,让智能设备在昏暗环境下,依然能拍出清晰、明亮、高色彩还原度的图像和视频。相比普通降噪方法,这项技术在运动、视频等场景有突出优势。


 

  • 实时双超ai算法:ai视频双超,更清晰更流畅

这一算法可以实时进行视频质量的优化,快速提升视频的分辨率、帧率及画质细节。双超算法是基于一种名为rife的高效视频插帧算法,让运行速度实现了数倍甚至数十倍的提升,而且伪影也较以往方法大幅减少。目前rife算法已开源,github star数量已超过1, 600。


 

  • 动作识别与检索:一个模型,实现从特定动作到任意动作的实时感知

旷视研究院最新设计的动作识别和检索算法,解决了当前主流动作识别算法通用性差、过度依赖外观信息等问题,无需繁琐的训练过程,就可以实时感知和识别全新的动作,实现了从特定动作到任意动作的突破。


 

  • 单目3d车路感知:仅用单目可见光相机,实现车路信息的3d感知


旷视研发的单目3d车路感知,无需对目前交通场景中的硬件进行升级换代,凭借充分利用当前交通场景中使用的单目相机,仅依靠3d算法就可获得道路与车辆的立体信息。



  • 全景视频实时拼接:全景视频转瞬即现,动态更新丝般顺滑

运用基于光流的多摄ai拼接算法,同时依靠实时动态无缝拼接网络模型,解决了多摄拼接计算量大、拼缝明显,以及拼接无法动态更新的技术难题,在智慧城市管理、车载相机、消费电子、户外运动相机等领域均有着广阔的应用前景。



  • 双目3d相机:精准捕捉三维世界,重构立体视觉

双目3d相机通过仿照人类利用双眼感知世界的方式,用两个摄像头捕捉图像,再通过ai算法形成立体视觉。它能呈现出被测物体丰富的深度细节,对反光、透明等物体的深度估计表现出众,抗环境干扰能力强。


 

  • 客户侧算法自升级:模型交付客户后,算法仍能够实现自动升级,“越用越聪明”

通过无监督/半监督学习算法,让部署的ai模型在客户现场实现”自动训练“、“自动升级”,不断提升模型精度、降低误报率。“客户侧算法自升级”使模型升级的整个过程不需要人工干预,可显著降低数据标注和模型升级的成本。


 

  • brain :让算法生产,迈向自动化时代

旷视总结了过去10年算法生产落地的海量经验,探索出一套快速、低成本生产算法的模式并将其沉淀在ai生产力平台brain 。旷视希望通过brain 提供的智能化、标准化的工具组件和能力,大幅降低算法生产的技术门槛,提高研发人员的工作效率,实现ai算法的快速批量生产和落地应用。



 

旷视能承受的住“灵魂拷问”的秘诀是什么?

聚集最优秀的人才,一起做最好的科研

让科研赋能产品,以产品反哺科研

不断探索人工智能的技术边界


更多信息请移步 技术开放日


2021-07-19

7月16日,megtech 2021 旷视技术开放日圆满结束!

14大demo亮相金隅园区

在炎炎夏日一同感受来自旷视的ai热情

让我们一同回顾技术开放日的精彩亮点吧


十年磨一剑,今朝试锋芒

今年是旷视成立的第十年,也是旷视持续创新,不断探索和拓展人工智能技术边界十年。

十年来,旷视在学术上发表85篇顶级会议论文,在竞赛上斩获40项冠军......

 

但是关于ai行业的灵魂拷问,从没有停止:

ai有没有用?ai在哪里用?ai易不易用?

旷视给出了自己的答案,剑指ai未来


旷视首席科学家、旷视研究院院长孙剑:人工智能技术价值不断进阶跃迁



旷视研究员张祥雨:基础科研是 ai 创新突破的基石



旷视研究员范浩强:从科研到落地,算法正在创造越来越大的价值



旷视研究员周而进:算法生产能力决定算法价值上限


14大demo,直面“灵魂拷问”

本次开放日上展示了旷视最新研发的14大demo,让我们一同近距离感受ai的魅力


repvgg:复兴极简神经网络架构,革新模型设计方法论 

repvgg是一个结构简单,性能优异的神经网络基本模型。repvgg模型在速度和性能上都达到了当前最优水平,研究成果已经被cvpr-2021接收。目前旷视研究院已将repvgg的模型代码开源,github star数量超过1, 800。


 

  • yolof:挑战经典,目标检测架构颠覆性创新

yolof(you only look one-level feature)是旷视最新设计出的目标检测器,已被cvpr-2021收录。旷视大胆抛弃检测任务中传统的特征金字塔网络(feature pyramid networks),从底层原理出发,探索出解决检测问题的全新方法。


  

  • 全卷积全景分割:极简算子一次性完成复杂图片的全部解析,实现全场景、全类别、全像素点的分割

旷视研究院创新设计出一种结构简单、运行高效的算法模型panoptic fcn(全称为panoptic fully conventional network),使用全卷积形式统一地表达和预测物体及周边环境,从而实现准确高效的全景分割。目前,该论文已被计算机视觉顶级学术会议cvpr 2021收录并被评为oral 论文,源代码已开源。


  

  • 室内视觉定位与导航:室内实时精准定位,一键导航,直达目的地

室内视觉定位导航的难点在于实时、准确地获取用户的相机位姿。旷视研发的室内视觉定位导航技术,综合运用激光视觉联合建图(大场景视觉特征点图)、纯视觉定位和ar特效导航,基于厘米级建图算法和cvpr 2021双冠视觉定位算法,快速准确地完成定位与导航。


 

  • 非接触式掌纹识别:走遍天下,身份尽在“掌”握

掌纹识别是一种具有独特性的生物特征识别方式,主要通过提取和比对掌纹图像中的掌纹特征完成身份识别。它具有更私密、安全的优势。旷视凭借其在屏下指纹和面部识别关键点多年的技术经验积累,通过深度学习算法,有效提升了掌纹识别在强光、干冷等困难场景下的准确率。


 

  • 自定义手势识别:手势识别个性化定义,实时交互随心所欲

旷视全新研发的自定义手势识别算法,最大的不同在于“自定义”。它通过精准实时的手势关键点检测与跟踪,支持用户根据不同使用场景的需求,随时录入并个性化定义新手势,支持静态手势和动态手势的实时录入,亦可支持多手检测。


 

  • 单目黑光:仅用一个摄像头,实现星光亮度下的可视化

通过模仿人眼“视锥细胞”与“视杆细胞”分别感受色彩和亮度的原理,结合神经网络技术,仅用一个摄像头,即可实现星光亮度环境下(0.1lux)的可视化,让智能设备在昏暗环境下,依然能拍出清晰、明亮、高色彩还原度的图像和视频。相比普通降噪方法,这项技术在运动、视频等场景有突出优势。


 

  • 实时双超ai算法:ai视频双超,更清晰更流畅

这一算法可以实时进行视频质量的优化,快速提升视频的分辨率、帧率及画质细节。双超算法是基于一种名为rife的高效视频插帧算法,让运行速度实现了数倍甚至数十倍的提升,而且伪影也较以往方法大幅减少。目前rife算法已开源,github star数量已超过1, 600。


 

  • 动作识别与检索:一个模型,实现从特定动作到任意动作的实时感知

旷视研究院最新设计的动作识别和检索算法,解决了当前主流动作识别算法通用性差、过度依赖外观信息等问题,无需繁琐的训练过程,就可以实时感知和识别全新的动作,实现了从特定动作到任意动作的突破。


 

  • 单目3d车路感知:仅用单目可见光相机,实现车路信息的3d感知


旷视研发的单目3d车路感知,无需对目前交通场景中的硬件进行升级换代,凭借充分利用当前交通场景中使用的单目相机,仅依靠3d算法就可获得道路与车辆的立体信息。



  • 全景视频实时拼接:全景视频转瞬即现,动态更新丝般顺滑

运用基于光流的多摄ai拼接算法,同时依靠实时动态无缝拼接网络模型,解决了多摄拼接计算量大、拼缝明显,以及拼接无法动态更新的技术难题,在智慧城市管理、车载相机、消费电子、户外运动相机等领域均有着广阔的应用前景。



  • 双目3d相机:精准捕捉三维世界,重构立体视觉

双目3d相机通过仿照人类利用双眼感知世界的方式,用两个摄像头捕捉图像,再通过ai算法形成立体视觉。它能呈现出被测物体丰富的深度细节,对反光、透明等物体的深度估计表现出众,抗环境干扰能力强。


 

  • 客户侧算法自升级:模型交付客户后,算法仍能够实现自动升级,“越用越聪明”

通过无监督/半监督学习算法,让部署的ai模型在客户现场实现”自动训练“、“自动升级”,不断提升模型精度、降低误报率。“客户侧算法自升级”使模型升级的整个过程不需要人工干预,可显著降低数据标注和模型升级的成本。


 

  • brain :让算法生产,迈向自动化时代

旷视总结了过去10年算法生产落地的海量经验,探索出一套快速、低成本生产算法的模式并将其沉淀在ai生产力平台brain 。旷视希望通过brain 提供的智能化、标准化的工具组件和能力,大幅降低算法生产的技术门槛,提高研发人员的工作效率,实现ai算法的快速批量生产和落地应用。



 

旷视能承受的住“灵魂拷问”的秘诀是什么?

聚集最优秀的人才,一起做最好的科研

让科研赋能产品,以产品反哺科研

不断探索人工智能的技术边界


更多信息请移步 技术开放日


热门新闻
售前咨询
在线咨询联系在线客服,了解产品详情
nhà cái k8的售后服务
商务合作业务需求、落地场景、所需产品功能咨询
网站地图