您的位置首页 >网络创业 >

人性化自治公司投入500万美元帮助自动驾驶汽车密切关注行人

有关使自驾车几乎一切是困难的,但最困难的部分是中确保车辆知道什么行人正在做的-以及他们是怎么对的事。Humanising Autonomy专注于此,并希望成为全球以人为本的计算机视觉系统中无处不在的一部分。

该公司凭借其人工智能系统从一个国际投资者群体中筹集了530万美元的种子轮,该系统声称其性能优于人类,并且可以处理几乎任何您可能在汽车中找到的相机上的图像。

HA的技术是一套经过培训的机器学习模块,用于识别不同的行人行为 - 这个人是否准备步入街道?他们在关注吗?他们是否与司机进行了目光接触?他们在打电话吗?像这样的东西。

该公司将其模型的稳健性归功于两个主要方面。首先,它的数据来源多种多样。

“从第一天开始,我们收集了来自任何类型的数据源的数据 - 闭路电视摄像机,所有分辨率的移动式摄像机,以及自动车辆传感器,”联合创始人兼首席执行官Maya Pindeus说。“我们还建立了数据合作伙伴关系,并与不同机构合作,因此我们能够在不同城市建立一个具有不同摄像机类型,不同分辨率等的强大数据集。这真的使系统受益,所以它适用于夜间,多雨的密歇根州等情况。“

值得注意的是,他们的模型仅依赖于RGB数据,而是放弃可能来自激光雷达的任何深度信息,这是另一种常见的传感器类型。但Pindeus表示,数据类型绝不是不兼容的,它不像现实世界的可见光镜头那样丰富或相关。

特别是,医管局小心翼翼地获取和分析事故的镜头,因为这些是AV或人类驾驶员未能阅读行人意图的信息性案例,反之亦然。

Pindeus声称的第二个优势是公司创建的模型的模块化特性。没有一个单独的“行人做什么”模型,而是一组可根据自主代理或硬件需求单独选择和调整的模型。

“例如,如果你想知道是否有人因为过马路而分心。我们做很多事情就像人类一样告诉别人是否分心,“她说。“我们拥有所有这些不同的模块,可以预测某人是否分心,风险等等。这使我们可以将其调整到不同的环境,例如伦敦和东京 - 人们在不同的环境中表现得不同。”

“另一件事是加工要求;自动驾驶汽车拥有非常强大的GPU要求,“她继续道。“但是因为我们在这些模块中构建,我们可以根据不同的处理要求进行调整。当我们与4级或5级车辆集成时,我们的软件将在标准GPU上运行,但随后我们与售后市场,改造没有那么多可用功率的应用程序一起工作,但模型仍然可以使用。因此,我们也可以跨越自动化水平。“

这个想法是,当真正几乎没有这样的汽车在路上时,仅仅针对最高级别的自治是没有意义的,并且大规模部署可能不会发生多年。然而,与此同时,传感堆栈中有很多机会可以简单地告诉驾驶员汽车后面存在危险,或者比现有系统提前一秒启动自动紧急制动。

虽然有很多关于检测行人行为或预测图像中人物将要做什么的论文,但很少有公司专门从事该任务。专注于激光雷达和RGB摄像机的全栈传感公司需要完成数十个或数百个任务,具体取决于您如何定义它们:物体特征和跟踪,观察标志,监控附近和远程汽车等等。它们和制造商可能更简单地许可HA的功能和高度特定的解决方案,而不是建立自己的或依赖更广泛的对象跟踪。

“自动驾驶汽车旁边也有机会,”Pindeus指出。仓库和制造设施使用机器人和其他自动机器,如果他们知道周围的工人正在做什么,他们会更好地工作。在这里,HA系统的模块化特性再次发挥作用 - 仅重新训练需要重新训练的部件比从头开始构建新系统要小。

目前,该公司正在与欧洲,美国和日本的移动供应商合作,包括戴姆勒梅赛德斯奔驰和空中客车。它正在进行一些案例研究,以展示其系统如何在各种情况下提供帮助,从在流行的人行横道上警告车辆和行人彼此,以及通过道路上的自动驾驶车辆改进路径规划。考虑到那里的行人的数量和行为,该系统还可以查看过去的镜头大量并对区域或时间进行风险评估。

Pindeus表示,由Anthemis领导的500万美元种子轮,日本全球大脑,德国放大器和SV的Synapse合作伙伴,将主要致力于将产品商业化。

“技术已经准备就绪,现在它是关于将它尽可能多地堆叠起来,并加强这些一级关系,”她说。

显然这是一个丰富的领域,但仍然是一个新的领域。技术可能已准备好部署,但行业不会停滞不前,因此您可以确定Humanising Autonomy将与它一起移动。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。