厦门致联科技有限公司

【国家级高新技术企业】

盒尔蒙
您当前位置:致联科技 >> 盒尔蒙 >>

新零售浪潮下,人货动作如何数字化?

2019年03月13日

  营业分析

在“何时何地何人对何种商品发生了爱好?”这个题目中,时间地点上要求精准地确定顾客的举动发生在哪个时刻、位于门店内的哪个货架附近;并要求正确的关联顾客,甚至关联上顾客的年龄、性别、新老客等属性;以及要求正确地确定是哪个SKU的商品被翻动或者拿起。与主动售货柜、线下大屏等场景不同,监控视角下相机离货品过远成像不清晰,同时商场和超市中的货品排列密集成像不完备,因此视觉相机只能大体用于判断顾客是否有翻动商品的动作,但是不能直接获得“人-货-场”中货品的信息,如图所示。


图1. 顾客翻动商品快照

为了解决该题目,我们使用了目前在新零售场景中广泛使用的无线射频电子标签(RFID),用于探测被用户翻动的商品。被动RFID标签价格低廉,可以广泛装置在服饰等货物中。算法目前给出了“何时何地何人与何种商品发生交互”的数据,团体的实现流程如图所示。

图2. 人货动作检测团体技术框图

其中,长途实体店中装置有监控摄像机设备与RFID接收器设备,分别录制实时视频与RFID标签受激反射的时序旌旗灯号;其中监控视频通过在实体店中布署的远端服务器运行顾客检测算法得到有行人的图片,只将检测到的行人图片回传到后台,RFID时序旌旗灯号旌旗灯号量较小因此悉数回传到后台;后台服务器环境中,首先基于回传的RFID旌旗灯号与检测哪些RFID标签可能被翻动了,因为店铺服务员已经将RFID标签的EPC编号与商品的SKU编号关联入库,基于被翻动的标签EPC编号可以取到对应商品的SKU;同时,回传的顾客图片被送入Mobilenet分类器中进行分类,检测出疑似有在翻动商品的顾客,并根据顾客的图像坐标进行坐标变换,得到该顾客的真实物理坐标;最后,将检测出的疑似被翻动的商品与疑似有翻动商品动作的顾客基于时间和动作的可疑程度进行关联,得到商品与行人的最佳匹配,从而实现检测“何时何地何人与何种商品发生交互”。

本文讨论其中的三个关键的技术点:

基于图像的顾客动作检测算法;

基于射频旌旗灯号的商品翻动检测算法;

基于二部图匹配的人货关联算法。

 1. 基于图像的顾客动作检测算法

基于图像的顾客动作检测算法随着营业与布署的需求经历了基于视频检测到基于单帧图像检测的演变过程。

1.1 视频图像动作检测 

1.1.1 题目分析

与行人、人脸检测等题目不同,顾客与商品的交互动作是一个时序过程,例如“拿起”、“翻动”、“试穿”等都是有肯定时长的时序过程,因此理解用户的举动是一个典型的视频动作分类题目。视频级动作理解重要研究基于整段视频进行模型学习与展望。随着深度神经网络的广泛应用,视频动作理解技术在近期得到了很大的发展,比较闻名的有2014年的CNN模型[1]、2015年的LRCN模型[2]和2017年的I3D模型[3]。其中LRCN在单帧图片上使用2D卷积提取特性,在帧与帧之间使用RNN提取时序关系,获得了较好的结果但是训练耗时伟大;I3D模型基于3D卷积真正实现对整个视频进行特性提取,同时训练速度加快了许多。

但是开源的数据集例如UCF101, HMDB51, Kinetics只有有限的几类常见体育活动、乐器演奏运动等动作,并未包含商超场景下的数据。因此我们自立构造商超场景下的动作视频,并提供应外包进行标注。商超场景下顾客与商品发生交互的过程是极其短暂的,在全天视频中有顾客举动的的时段约只有0.4%,正例分外稀少。为了尽可能挖掘正例样本,进步外包标注服从,我们使用Lucas–Kanade光流算法对视频进行了预处理,通过初步判断视频中有无运动目标筛选视频,经过该处理后,将样本中正例的比例进步到了5%。为了进步样本的置信度,我们同时还对样本中的正例进行了校验标定,确保正例的正确性。

  1.1.2 动作检测模型及其优化

为了检测在视频中发生的动作,本文尝试了:

基于人体关键点检测算法(Pose)与跟踪算法(Track)主动裁剪得到每个顾客每只手的实时短视频;

基于Inception-V1 C3D(I3D)模型训练手部动作的分类器,并对I3D模型进行了裁剪优化。

裁剪顾客每只手的短视频有助于正确确定动作发生的位置,同时因为顾客对商品的翻动动作肯定是通过手部进行的,因此顾客身体的其他部位对检测效果没有直接影响,而关注于手腕局部有利于减小模型计算量、加快模型收敛,其中算法涉及的Pose模型基于Open Pose[4],Track算法基于Deep Sort[5],均有成熟的模型可以直接使用。

本文重要讨论对Inception-V1 C3D模型应用于理解手部动作视频的研究。基于图片的学习义务通常使用2D卷积核在图像上滑动并池化实现特性提取,而基于视频的学习义务要求将传统的2D卷积扩展到3D上,在视频中滑动并池化实现特性提取。如图所示,3D卷积相比于2D卷积多了一个时间维度。

图3. 2D卷积池化与3D卷积池化操作示意图

本文使用了新近提出的Inception-V1 C3D(I3D)模型,该模型将传统的Inception-V1模型扩展到3D维度,在Kinetics, HMDB51, UCF101数据集上取得了目前最好的结果。I3D模型框图如图所示。示意图中所有的卷积与池化操作都是3D条理上进行的,其中Mix模块是Inception V1模型中的Inception感知子模块,由4个branch构成,如右侧所示。

图4. I3D模型框图(左)与Inception 子模块结构

现实应用在商超顾客举动理解的义务中时,我们发现3D卷积带来模型参数过多,极容易过拟合,同时网络程度过深也导致模型泛化能力差,dropout作用薄弱等题目,因此我们对Inception-V1模型作了简化,去除了模型中不需要的多层Inception模块(Mix_4c, Mix_4d, Mix_4e, Mix_4f, Mix_5c),并将每个Inception模块的卷积核数量(depth)调少至原来的1/2,将模型简化为如图所示:

图5. I3D模型的裁剪改动

该简化操作将模型分类正确度(Accuracy)从80.5%进步到87.0%,进一步调试超参,最终分类Accuracy进步至92%.

  1.1.3 结论与分析

我们将样本使用tfrecords处理之后,上传到了集团数据存储中间,并使用PAI在分布式环境中进行了模型训练(30张GPU卡),并将训练所得的模型应用于理解顾客的动作,算法目前实现的现实展望结果如视频动作检测效果.mp4所示,目前在服务器下可以实实际时的对单路视频中的顾客动作进行检测,但是视频动作分类检测相比于传统的图像分类义务存在的题目重要有:

模型复杂度高,三维卷积(C3D, Convolutional 3D)必要同时在时间与空间上进行;

数据规模伟大,训练困难,相比于图片,视频数据规模扩大了数百倍到数万倍;

现实部署模型挑衅大,视频动作模型在实用过程中的展望时间服从,组织时序样本,滚动窗口展望等方面都存在极大的挑衅。

  1.2 单帧图像动作检测

  1.2.1 题目分析

基于视频卷积的顾客动作检测算法有较高的精度(92%), 并能给出正确的动作位置(正确到手腕位置),但是因为视频3D卷积模型和Pose模型参数多复杂度高,一台服务器只能跑一起检测算法,给计算性能带来沉重的负担,同时三维卷积算法要求精准关联一段时间以内的手部延续视频,给Tracking算法也带来很大挑衅。为了让动作检测算法可以适应于多路监控旌旗灯号多个店铺的场景中,我们进一步发展了基于单张图片的可疑动作检测算法,对单张图片直接进行疑似动作的分类检测。单张图片的可疑动作检测因为信息较少,正确性相对于基于视频的动作检测算法偏低,但是通过与RFID检测效果相互融合校正,可以填补其正确率较低的缺陷。

  1.2.2 模型及其优化

基于单张图片的疑似动作检测是经典的二分类题目,为了减小对计算能力的需求,我们使用了MobileNet[6]作为分类模型。MobileNet是微软提出的一种高效轻量的网络模型,重要基于depth-wise convolutions和point-wise convolutions对传统的卷积层进行了计算量上的优化。与传统卷积网络相比,MobileNet在保持精度几乎不变的同时计算量和参数数量可以降到原来的10%~20%左右。本文中,使用了MobileNet_V1版本模型,并设置卷积通道数因子Depth multiplier为0.5以进一步减小模型规模。我们通过外包标注了图片动作数据集,并对样本作了均衡处理以保证训练过程中正负样本数量同等。同时,考虑到营业场景中盼望尽可能捕获到用户有动作的瞬间,因此我们根据模型Logits输出进行了最优化参数寻优,在保持分类精度(accu)89.0%左右时,进步正例召回率(recall)达到90%,确保正例尽可能被召回,如下图所示。

图6. MobileNet模型优化

  1.2.3 结论与扩展

基于图片的动作检测算法对动作的分类精度可达89%(略低于基于视频的动作检测算法,同时无法正确到手腕位置),召回90%。下图展示了模型展望出的行人是否有拿取衣物的动作,其中图片下方灰白色条纹透露表现模型检测动作为正例,图片下方黑色条纹透露表现模型检测动作为负例。 

图7. 基于图片的动作分类效果示例

因为基于图片的动作检测算法基于轻巧的MobileNet模型,大大降低了计算复杂度,对一家门店全天的数万张可疑图片进行展望耗时只必要十分钟左右。同时算法可以只对回传到后端的图像处理,大大降低了现场设备与服务器的负担。但是基于图片的动作检测算法只正确到行人位置,不能给出正确的动作位置,同时统一个动作在前后若干秒内的图片都有可能被检测为正例,对时间关联正确性也有肯定影响。

  2. 基于射频旌旗灯号的商品翻动检测算法

  2.1 题目分析

当顾客翻动衣服时,挂扣在衣服上的RFID标签会随之发生细小抖动,RFID接收机设备记录标签反射的旌旗灯号RSSI,Phase等特性值的转变,回传到后台,算法通过对每个天线回传的旌旗灯号值进行分析判断商品是否发生翻动。基于RFID旌旗灯号判断商品翻动存在诸多题目,包括旌旗灯号自身噪声、环境多径效应、无意电磁噪声、货柜对旌旗灯号遮挡的影响等。同时RFID反射旌旗灯号的大小与接收器离标签距离远近存在非线性关系[7],

其中,d代表RFID标签与接收器之间距离, l=d mod λ, γ受Multipath和当前环境的影响,μ透露表现各种静态设备偏差带来的偏移。从公式中可以看出,接收器安装的位置,商店环境等都会给RFID旌旗灯号带来很大影响,探求同一的可以适用于不同商店、不同位置接收器的翻动判断算法存在很大挑衅。

  2.2 翻动检测算法及其优化

我们首先尝试了建立监督模型检测商品是否被翻动,通过收集门店中现实布署的两个不同RFID天线采集的标签RSSI与Phase时序旌旗灯号,并手工组合了以下特性:

其中Ant1, Ant2透露表现两个不同天线对统一个标签采集到的旌旗灯号,Diff透露表现对旌旗灯号的差分运算,Avg透露表现对旌旗灯号的均值处理。最终以每秒50帧,每个样本采集8秒延续旌旗灯号形成400×10的二维特性。并使用自立构造的数据集基于以下模型进行训练,最终现实分类精度为91.9%。 

图8. RFID CNN模型

使用基于有监督模型的检测算法可以获得较高的商品翻动检测精度,但是现实应用过程中发现模型泛化能力很差,当店铺货柜发生移动或者天线位置发生移动时,旌旗灯号发生剧烈转变,基于原先数据集训练好的模型很难泛化到新的场景中去。因此,我们进一步尝试了基于无监督模型的算法,力图进步检测算法的泛化能力。分外的,我们细致到:相位信息与空间位置无关,但是与相对位移有关:相位信息频率分布图;频率信息与空间位置无关,但是与动作快慢有关:频域信息频率分布图。

严酷意义上,频率信息中的幅度信息与空间位置存在关系,但是当我们只关注于频率分布(不同频率成份的占比)时,可以将频率信息也当成与空间位置信息无关的特性。频率信息的获取必要对RSSI旌旗灯号与Phase旌旗灯号进行离散傅利叶变换:

然后统计频率旌旗灯号与相位旌旗灯号的分布图。对得到的分布图,计算当前分布与前一个时刻分布的JS散度(相对于KL散度,JS散度具有加法的对称性,因此可以用来衡量多个分布之间的相对距离)。

基于相邻时刻前后两个样本的JS散差异对商品的翻动举动进行检测,根据场景调节最终JS散度差异值域值可以得到与基于监督模型相近的动作检测精度。

  2.3 结论与分析

基于监督模型与无监督模型对商品的翻动情况进行了检测,算法给出了正确的被翻动的商品(SKU),监督模型检测精度可达91.9%,无监督模型的检测精度可达94%(高于监督模型),同时使用JS散度度量进步了算法的泛化性能,根据不同场景轻微修正域值,检测算法就可以适用于不同的场景。

  3. 基于二部图匹配的人货关联算法

  3.1 题目分析

显然,基于图像的顾客举动检测与基于RFID的商品翻动情况检测是星散的两个过程:

基于RFID的检测给出了商品被翻动的情况,但是不能给出翻动动尴尬刁难应的顾客;

基于图片的动作检测给出疑似在翻动商品的顾客,但是不能给出是哪些商品被翻动。

在现实场景中,统一位置统一时刻通常只有少数的几个动作发生,因此可以根据RFID检测出的商品被翻动的时刻和图像检测出的在翻动商品的顾客的时刻进行匹配,将翻动商品的顾客与被翻动的商品关联起来。但是存在的题目是:

图像检测出的动作时刻与RFID检测出的动作时刻累计偏差可达5~15秒。RFID旌旗灯号、监控视频旌旗灯号回传到服务端过程的传输时间差、现场设备时钟不同步导致的时间差、算法估计动作时刻不准都会带来两种检测算法的时刻不同等。

邻近时刻邻近位置可能有多个可疑顾客和多个可疑被翻动商品。

  3.2 人货关联算法及其优化

我们对统一个货架附近的RFID设备检测出的动作与图像检测出的动作进行关联,并在关联动作时,同时考虑了时刻同等性与动作可疑程度的匹配性。确保统一货架统一时刻确实有拿取商品的顾客关联上确实被拿取的商品。当有多个顾客在统一个区域均有可疑动作或者多个商品在统一个区域均有可疑的被翻动情况时,进一步通过二部图匹配算法,找到多个商品与多个顾客之间的最佳匹配。 本文中,顾客与商品的匹配程度(边权)定义为:

透露表现第i个顾客翻动第j个商品的可能程度,其中

是基于Sigmoid函数描述的顾客与商品动作时间同等性函数,

是MobileNet模型对输入顾客图片展望的动作概率,

是模型对输入RFID旌旗灯号展望的动作概率。最大化顾客与商品的匹配程度是一个带权二部图匹配题目,我们使用了的Hungarian[8]匹配算法对商品与顾客进行匹配,考虑到营业场景中顾客常常分批次进店购物(通常间隔十几分钟同时进店两三小我),商品与顾客通常只在很短的几分钟时间内存在可能的匹配关系,该二部图现实上由多个不连通的子图构成(如图所示):

图9. 人货匹配的二部图中存在多个子图

因此我们在匹配算法之前先将二部图分成了多个不连通的子图,对每个子图单独进行匹配以降低计算与存储复杂度。在使用邻接矩阵存储边权关系时,分成子图匹配大大进步了算法服从,将匹配全天数百至数千个顾客与商品所耗费时间从数个小时降低到了几分钟的量级。

  3.3 结论与分析

基于二部图匹配的人货关联算法可以得到商品与顾客之间的全天最佳匹配,改动后的算法大大进步了计算服从,将匹配全天顾客与行人耗费计算时间从数个小时降低到几分钟以内。同时,人货关联算法是团体人货关联的最终环节,人货关联的正确性受到顾客检测正确性、基于单帧图片检测的顾客动作正确性(89%)、基于RFID的商品翻动举动检测正确性(94%)以及人货关联匹配程度正确性等各个上游算法模型正确性的影响。

  4. 结论与分析

我们整合了上述算法:

基于图像的顾客动作检测算法;

基于射频旌旗灯号的商品翻动检测算法;

基于二部图匹配的人货关联算法。

并在门店中进行现实展望。为了便于理解,这里给出了算法检测出的若干示例效果:“何时(时刻)、何地(图像坐标)、何人(行人ID)、与何种商品(商品SKU)发生交互”。

其中行人ID是顾客检测算法为进店用户赋予的编号,坐标这里给出的是图像中的坐标,并在下流流程中可以变换至其在店铺中的物理位置,SnapShot是算法匹配上的顾客在翻动商品的瞬间。

基于单帧图片的动作检测尽管精度偏低,但是对进步顾客与商品的关联正确性却有显明的作用。我们对比分析了不作单帧图片动作检测关联得到的人货数据与基于单帧图片动作检测关联得到的人货数据,发现基于单帧图片的动作检测算法将匹配的最终正确率从40.6%进步到了85.8%。

因为人货关联算法是团体人货关联的最终环节,人货关联的正确性受到各个上游算法模型正确性的影响,我们通过时间关联程度与动作可疑程度两个维度同时进行匹配,使得最终的匹配行人与翻动商品的正确率可以达到85.8%。说明了:

人货场邃密到商品SKU与行人动作秒级的关联是切实可行的;

基于无监督的RFID检测算法可以降低规模化部署商品翻动检测算法的难度;

基于单帧图片的行人动作检测算法切实有用并可以直接在后端服务器环境规模化布署;

同时,算法目前仍处于初级阶段,在以下若干个方向中仍需进一步化化扩展:

1.基于单帧图片的行人动作检测算法仍有很大的优化空间:数据集从千张正例提拔到数万张正例可能可以带来明显性能提拔,服务器可以承受更多的计算压力,因此分类模型可以尝试VGG, ResNet, Inception等更优的模型。

2.目前的单帧图片动作检测算法位置上只正确到行人位置,可以尝试检测模型将RFID定位精度正确到动作发生位置。

3.目前RFID接收器只能检测附近1~3米内几十个商品到几百个商品的旌旗灯号,同时RFID接收器的采集频率,天线轮询机制对RFID检测的容量与范围带来很大限定。RFID检测算法从硬件层开始优化可以实现大大降低成本并提拔检测容量、范围与精度。

4.无监督的RFID商品翻动检测算法依靠域值调试,探求可以泛化到不同门店的无监督检测算法仍然有很大优化空间。

5.关联人货目前基于时间与动作可疑程度,进一步可以依据粗略的商品位置与行人位置进行关联,对于进步关联正确率将会有较大作用。


  • NB-IOT智能温湿度监测解决方案是将NB-IOT技术引入环境温湿度监测中,突破传统方式,实现对温湿度信号采集、传输、平台监控和管理,广泛应用于医药、农业、食品、博物馆文物、档案管理、建筑等领域。
  • 1安全性原则 系统以三权分立为原则,对需要使用本系统的部门以及相关人员、角色、权限、角色权限对应关系、人员角色对应关系进行管理。系统内建安全员、系统管理员、审计员三个角色,分别操作相应的业务功能。在权限管理中系统的每一个职能模块都有自己的使用权限。 用户角色可以跨模块对应相关权限,每一个用户也可以跨部门,跨
  • 目前医院正面临每年都要处理成千上万件的工作服 、病人服及各种被服,对于这些衣物的交接、洗涤、熨烫、消毒、整理、储藏等工序,若没有一套完整的自动识别管理系统,想高效地跟踪管理每一件衣物的洗涤过程、洗涤次数、库存状态和衣物有效归类等是一件极具挑战的事情;而且工作服洗衣登记、领收工作繁琐,很大程度浪费宝贵的工作
  • 在光纤配线设备(光纤托盘/光纤配线架)光纤端口上加装无源RFID电子标签来标示其端口属性,并在跳接用的光跳纤的接头上也附加上成对的无源RFID电子标签。这样通过单端口读写器一次性读取和采集端口RFID标签信息和对应的光跳纤头上的RFID标签信息,把这双无源的RFID电子标签信息进行绑定并处理,从而达到智能管理的目的。  单端口
  • 为了缓解城市停车难的迫切需求,厦门小猪信息科技于2017年12月起,自主研发了“小步智慧停车”系统。并于2018年10月17日成立公司,“小步停车”赋予了用户智慧停车体验感,为社区、商业综合体、事业公共单位提升了高效的管理机制,创造了良好的社会效应。无人值守,快速通行,智慧停车APP可实现共享停车,预约停车,一键定位,反向寻车
  • 福建省中通通信物流有限公司受中国联合网络通信有限公司福建省分公司、联通(福建)公司产业互联网有限公司、联通系统集成有限公司福建省分公司的委托,就中国联合网络通信有限公司福建省分公司2018年创新业务合作伙伴进
  • 中国网海峡频道9月21日讯2018中国(厦门)国际收藏投资博览会期间,厦门致联科技有限公司冯奇飞经理接受中国网海峡频道专访。主持人:首先请您做一个自我介绍以及介绍一下公司的概况。冯奇飞:大家好,我是致联科技的冯奇飞
  • 2018年9月10日,厦门安妮股份有限公司(002235)董事长张杰先生、安之行厦门企业咨询服务有限公司执行董事廖伟源先生等一行莅临厦门致联科技进行参观考察。致联科技董事长杨顺福热情接待了张杰董事长一行,从公司发展现状
  • 近日,由新华网、中国投资协会、厦门市物联网行业协会主办的2018物联中国年度盛典暨第四届中国(国际)物联网博览会“中国(国际)物联网产业大奖”评选结果正式揭晓,厦门致联科技有限公司荣获“2018中国(国际)物联网产业
  • 6月11日,致联科技团队和台湾台达集团总部相关团队通过视频会议系统,共同学习和探讨了台达DeltaMESsystem。通过一整天的深入交流,大家加深了对MES系统及行业智能制造解决方案的理解。致联科技和台达集团将共同携手推动智能制造在卫浴、电子制造等工业领域的应用
  • 2018年1月4日,厦门市科学技术局公布了“厦门市2017年第二批(总第二批)市级高新技术企业备案名单”。致联科技作为一家基于“物联网+”的发展趋势而成立的高新科技公司,荣列榜单之中。 具体公示如下 关于公布厦门市2017年第二批(总第二批)市级高新技术企业备案名单的通知【厦科高〔2018〕1号】 各有关单位: 根据《关
  • 10月17日下午,德国米特韦达大学Exner教授一行莅临致联科技参观指导,致联科技董事长杨顺福先生及夏靖波教授热情接待了Exner教授一行。 Exner教授一行与董事长杨顺福等领导教授合影留念 在致联科技董事长杨顺福、夏教授和致联同仁的陪同下,Exner教授一行参观了致联展示厅和实验室,对致联科技通过展示厅和实验室形象展示公
  • 前言:8月16-18日,2017第九届深圳国际物联网博览会在深圳会展中心成功举办。厦门致联科技有限公司携全新的物联网核心技术产品与行业整体应用解决方案,全方位出击这场物联网盛会,吸引了大量国内外的体验者和众多行业客户、专业人士到场参观交流,洽谈合作。 为期三天的2017年第九届国际物联网博览会,于18日在深圳会展中心画上
  • 7月盛夏,百花盛开,致联科技乔迁新址完美落成。新址坐落于厦门湖里高新技术园区宏益华府营运中心7楼,四面环窗,视野开阔,一眼望去,蓝天大地,尽收眼底。近千平方的办公环境,宽敞透亮。每天早晨,推开天窗,闻着花香,顿时让人心旷神怡,畅想未来。 致联为峰,事业恒辉!公司从2015年成立至今,公司一直秉承“责任,专注,创新,共赢”
  • 2017年5月27日,致联科技技术团队赶赴台湾,开始了为期三天的学习交流。在淡江大学李教授与曾教授的带领下,致联先后走访了HeartGear生技公司、TopPulse科技公司、力浦电子科技公司和连立达公司。通过现场参观及学习交流,此次行程可谓收获满满。恰逢端午时节,致联伙伴与台湾友人欢聚一堂,共度中国传统节日。 根据行程安排,致联
  • 3月29日上午,华侨大学计算机学院院长蔡绍滨、华侨大学计算机学院教授何霆等多位专家教授莅临致联科技现场参观交流与技术指导。同时,到访的还有百特智能技术装备副总祁剑峰、六禾(厦门)智能科技总经理李立新以及福建万旗科技陶瓷公司副总赖学平。 首先,致联科技管理层向在场的来宾简要阐述了致联科技在物联网技术上的
  • 关闭
    0592-5285711 时 间:9:00-18:00
    联系我们
         QQ客服 热线电话 公司地图