浪潮信息AIStation助力爱驰汽车个性化应用落地
时间:2020-07-27 21:27 来源:网络整理 作者:bosi 点击:次
近期,浪潮AIStation助力爱驰汽车,加速其个性化驾驶AI助手等创新AI应用落地,将AI计算资源利用率提高到90%以上,降低了企业运维人员50%的工作量,为用户提供“千人千面”的出行体验,备受企业用户喜爱。 爱驰U5是业内首款已量产的搭载了个性化AI助手的智能电动汽车,实现了车载助手“个人千面”。用户只需上传任意一张亲友的照片和一段语音,就能定制一个与其外形相似、可进行个性化语音播报和语音对话的专属虚拟伙伴,在车内也能拥有亲友陪伴在身边的温暖体验。作为我国智能电动汽车冲出的一匹黑马,除U5车型外,爱驰汽车正在将AI技术应用于车载个性化助手、车载智能语音交互、车载机器人、车载驾驶员和乘员检测关怀等系统和功能中,并在量产车上落地应用,为用户提供体贴入微的个性化关怀。例如:当驾驶员出现不规范驾驶、疲劳驾驶、分神等行为时,TA会发出语音警示进行提醒;当车内有儿童哭闹,TA能够立刻辨别表情和声音,及时播放孩子喜欢的音乐、故事。 爱驰温情关怀面临两大挑战:计算力和资源调配矛盾凸显 有温度的关爱伴随着海量数据的处理和计算。爱驰AI团队以有温度的感情陪伴助手为目标,在人机交互上开展深入的研究和技术探索,所开发的机器深度学习模型不仅需要海量数据,还需要高性能的计算资源。以语音识别模型为例,至少需要1000个小时以上的训练数据,如果按每条数据平均4秒时长计算,数据量在90万条以上,需要4张V100 GPU卡训练一个星期。 首先,需满足AI研发创新对计算力的需求。爱驰汽车采用了浪潮信息AGX-2训练服务器集群,提供给数百人的人工智能开发团队使用,进行图像、NLP、语音、AR/VR等领域的研发。AGX-2在2U空间内高速互联集成8颗最高性能V100 GPU加速器,是业界计算密度最强的AI服务器。通过GPU加速,工作效率有了很大的提升。 其次,要面临是因为开发需求增多导致资源不足的问题。计算资源依靠管理员手工标记GPU使用情况,无法及时了解资源的利用率,运维成本很高。尤其是开发人员提交并行任务时需要协调资源,更增加了系统管理员的工作难度。此外,分散式的数据管理影响工作效率,不同业务开发人员开发所需要数据集不同,存在数据冲突和数据安全问题。音频和图像等数据集一般都有几百GB,处理起来费时费力。同时单台机器创建多个AI框架,开发环境相互影响,GPU卡多人同时使用导致相互抢占资源。 浪潮AIStation助力爱驰汽车“爱,一刻不松弛” 浪潮AIStation平台针对爱驰汽车在AI开发中的数据管理问题输出整体解决方案,帮助爱驰技术团队建立稳定高性能的数据管理机制,消除数据安全、数据冲突、带宽延时等问题,让关怀AI模型训练效率获得200%-300%的提升,显著提升企业AI研发效率。为爱驰汽车的AI开发团队构建了敏捷高效的一体化开发平台,全方位助力爱驰汽车关怀研发环节“爱,一刻不松弛”。 除了数据,AIStation还能高效管理计算资源、开发环境,帮助AI用户提高计算资源利用率,秒级构建开发环境,加速AI研发创新进程。 AIStation将计算资源全部集中池化管理,系统管理员通过可视化界面统一监控计算资源,实时了解CPU/GPU/存储的使用情况、利用率情况和性能表现,以及用户的训练任务规模和数量,降低了运维难度和工作量,从而实现了资源统一管理、监控和运维。 AIStation支持数据协同管理。一方面缓存策略可加快训练速度,数据集可提前预加载到本地计算节点中,减少网络IO对训练速度的影响;另一方面,可帮助开发人员精细化地管理数据,让开发人员根据业务需求对数据进行保密或共享,在保护数据安全性的同时也能实现协作开发。 AIStation可满足不同开发人员的使用习惯。内置TensorFlow、PyTorch、MxNet、Caffe等AI软件栈,同时兼容ngc、dockerhub等开源镜像,开发人员通过容器的形式秒级完成开发环境创建。内置Jupyter、Shell开发工具,以及本地开发工具vscode、pycharm,同时为方便同业务组的人员共同协作,组内人员创建的开发环境相互可见,并可进入开发调试。还可以在开发环境中提交训练任务,减少了资源相互占用,提高了资源利用率。 (责任编辑:admin) |