日期
05/21
2019
咨询
  • QQ扫一扫

  • Vision小助手
    (CMVU)

安森美半导体智能感知策略及方案媒体交流会
收藏
2019-05-21 17:50:23来源: 中国视觉网

安森美半导体智能感知部全球市场及应用工程副总裁 易继辉(Sammy YI)

   2019年5月15日,安森美半导体的前身是摩托罗拉半导体,1999年从摩托罗拉半导体分拆。摩托罗拉最强的一点是质量管控,比如市场上非常受欢迎的6-Sigma(6西格玛)就是由摩托罗拉研发的。目前汽车、消费电子等行业都在使用这管理方法。安森美半导体现在全球员工总数超过3.2万人,2018年总收入近60亿美元,产值在五六年间翻了约一倍。其中,汽车领域收入占比约1/3,工业领域收入约占比1/4,通信领域约占比1/5。可以看出,安森公司发展比较均衡,汽车和工业是两个主要板块。汽车和工业也是近年发展势头最好的两个行业。
   安森美半导体分三个产品部门:电源方案部(PSG)、模拟方案部(ASG)和智能感知部(ISG)。安森美半导体在整个电源行业表现非常出色。I图像传感器部门(Image Sensor Group)更名为智能感知部门(Intelligent Sensing Group)。这次改动不仅仅是名称意义上的更改。




   按终端市场收入划分,我们公司汽车市场约占比1/3,工业市场约占比1/4,通信市场约占比1/5;按区域市场收入划分,亚太地区占比总收入超过2/3,其中中国市场举足轻重。
   在代理商的使用方面,我们和竞争对手的做法有很大的不同。和代理公司维持紧密的合作关系是安森美半导体的一个战略方向。目前我们的竞争对手在代理使用上都在逐渐减少,而安森美半导体却逐年增加。




   2018年,安森美公司得了很多奖项。安森美半导体在尚未和摩托罗拉拆分之前,作为一个整体,摩托罗拉是世界500强公司。拆分之后,安森美半导体去年成功进入《财富》美国大公司500强这是我们多年布局努力实现的目标之一。另外,最让我们感到骄傲的是,安森美半导体连续四年获选“世界最道德企业”。整个半导体行业,只有2-3家获选过,而我们是连续四年获得该荣誉的公司。




   我们智能感知部的终端市场有很多,包括航空国防、科学研究、医疗,但是汽车、机器视觉、边缘人工智能是我们最重要的三大市场方向。我们所提供的技术、产品和能力主要也是针对这三个方向。
   智能传感器(后面我会对传感器的类别进行详述)、深度感知、传感器融合,是感知未来发展的三个趋势。智能感知已经不似传统的图像传感。传统的图像传感技术很大程度依靠手机开发出来,因为手机原来图像传感器用得非常多。现在智能传感器被广泛应用在汽车、机器视觉、边缘人工智能这三个领域,很多新技术是先被开发出来,后被运用到手机里。较之汽车、机器视觉和边缘人工智能有很大的不同:一是像素,现在很多手机厂商都在宣传自己的像素级别,如2000万像素、1600万像素,但是人眼仅能够鉴别1600万像素左右,再高对于人眼也没有区别。但是智能传感对于像素识别几乎没有边界。一个很大的趋势,随着人工智能对像素分辨、理解和判断能力需求的提升,图像传感器对于像素识别要求也越来越高。
   在这三个板块中,全球世界500强的客户,包括一些新型创新企业都是我们的客户。我们的目标是“创造超越人眼的视觉”。当然现在有一些功能已经完全超过了,但这只是我们技术开发的开始。




   就汽车智能感知的应用而言,安森美半导体现在提供了宽广的汽车传感器阵容。2018年,安森美半导体占整个超声波行业市场份额的60%。2017年我们收购了IBM海法研究小组(IBM Research Haifa Lab)在以色列的毫米波研发中心,现在我们可以提供毫米波雷达方案。2018年5月,我们收购了爱尔兰 SensL Technologies公司,它的核心技术之一是SPAD(单一光电雪崩二极管),该产品具有非常高的感光效应,具有上百万、上亿的感光倍数。因此,现在我们是全球唯一一家拥有所有感知技术的公司,打破了行业间的壁垒。传统的公司发展会主攻某个领域,比如研发毫米波雷达的公司就专注于将毫米波雷达的能力发挥到极致,研究激光雷达的公司则思考如何将激光雷达的能力发挥到极致。我们的战略布局是如何提升综合能力,达到综合能力的极致,以宽广的产品阵容满足客户全方位的需求,而不是满足于在某一个领域做到极致。这是我们的战略布局,也是我们未来的一个优势。

   图像传感器是整个半导体行业复杂程度最高的技术。电脑里的CPU(中央处理器)由电子部件组成。但图像传感技术则要将光子和电子二者结合,把光转换成电,再把电转换成光,这里面包含了很多前沿技术。大家可以看到这里面复杂的结构,这上面是一个微凸镜,这是彩色滤光片(Color Filter),上面这些元件是和光有关的,下面是和电有关的元件。光转换成电以后,通过数字线路和模拟线路进行传输。现在我们已经可以做到两个芯片堆栈,并已经在批量生产。下面会做三个芯片堆栈的量产,以后还可以把一些处理器和存储器都直接加载到图像传感器里面。

   宽动态最早是满足汽车应用的需求,现在宽动态已经不光局限在汽车应用上,还延伸至边缘人工智能和工业领域。简单来说,宽动态是指一个图片上亮和暗的比差。用手机从室内拍摄窗外的时候,一般室外景物拍摄清晰时但室内拍摄效果却是一片漆黑,若保证室内清晰窗外效果就一片空白,原因就是手机的宽动态不够。
这是去年推出的一个产品,客户使用我们安森美半导体和竞品在北美非常著名的一个隧道做宽动态测试,看谁的性能更好。右边的图片基本上能够看到隧道外面的车、行人和隧道墙壁的细节,而左边图片上隧道外面则一片空白,甚至连隧道墙上的细节都已经模糊。人眼可以识别这是隧道,但机器视觉却无法识别。这是宽动态的一个应用。




   第二个应用是夜间行车,特别是遇到相向而行的车开启大灯的时候。在宽动态102dB的情况下,可以看到路边行人的轮廓,那人工智能就可以判别左边有行人。但如果宽动态在90dB或80dB,人工智能算法就没有办法判断这是人,甚至看不到左边这个实体的存在。所以,宽动态汽车在应用中非常重要。

   现在汽车智能感知元器件越来越多。目前启用启动驾驶的车辆拥有9个图像传感器,而下一代正在开发的图像传感器已经超过12个,还有接近20个正处于研发阶段。同时还配备有10个雷达,至少2个超声波,将来也会配置至少1个激光雷达。所以,现在汽车的感知能力已经比驾驶员更强。驾驶员的视线范围一般只能覆盖前方180度,加上余光,可能超过200度,而汽车智能具有360度感知能力。另外,驾驶员可能会有几毫秒的精力分散情况,而智能感知可以全时候地跟踪、检测和计算。感知技术搭配人工智能,未来自动驾驶和智能驾驶一定会比人类更可靠、更安全,只是现阶段技术还尚未成熟。

这是汽车图像传感器在整个市场的应用:
   1. 先进驾驶辅助系统ADAS的很多的功能大家很熟悉;
   2. 车舱内摄像机,这是下一代智能汽车应用中发展非常快速的一个应用。2016年,一辆配有Autopilot的特斯拉Model S在佛罗里达州发生车祸,驾驶员死亡。经调查,这起事故的发生原因是该名特斯司机过度依赖Autopilot系统。在两个半小时的驾驶过程中,这名驾驶员手扶了驾驶盘不到五分钟,即使车子多次给与他警告,他已然放任不管。接下来,在车内安装Driver Monitoring System(驾驶员监控系统)是整个无人驾驶行业的趋势,包括CAR  DVR(行车记录仪),现在安装的很多行车记录仪就需要运用到图像传感器。
   3. 视觉摄像机和摄像机监控系统(CMS),一些大型卡车已经开始应用该系统来取代车镜。由于欧洲市场法规规定,汽车一定要配备后视镜。但是卡车后视镜面积很大,造成较大的挡风阻力,有了CMS摄像头之后,卡车的后视镜就可以被改小。根据计算,使用后视镜替代能够节省5-10%的能源。
   4. 自动驾驶。
   在汽车行业,汽车品牌对图像传感非常重视。图像传感器在半导体行业平均成长率为2-3%,这是整个半导体行业发展过程中的一个亮点。

   根据第三方市场调研公司的数据,这是我们智能感知部门在汽车视觉(Viewing)和感知摄像机(Sensing)两个块的市场份额情况。2016年,Viewing和Sensing两者加起来占总体50%市场份额。如果只看机器视觉(即感知摄像机),我们市场份额占比超过了60%。2018年,Viewing和Sensing占总体市场份额62%,如果只看机器视觉(ADAS+自动驾驶)已经超过80%的市场份额,比所有竞争对手市场份额的加和还要大。
   这个数据也暗含了很多重要信息。例如,我们做投资选择一家公司会要看几个指标。第一,市场份额,看否是该行业市场的龙头老大;第二,市场成长率,在现有的市场份额基础上,公司是否能够继续增长和扩大。这是整个公司的布局和技术上的投资,以及对这个行业重视的结果。

安森美半导体在汽车应用的主要优势:
   一、安森美半导体提供汽车感知(Sensing)和视觉(Viewing)总体的解决方案。
   在整个行业内,我们提供最完整的系列产品,产品的性能和功能都处于行业领先,比如满足各个级别的像素需求(130万像素至1200万像素等),高端摄影机里面的宽动态技术如今也被应用到汽车领域。
   投入时间久。安森美半导体是一家专业的汽车半导体公司,很多竞争对手是从专业消费电子转入到汽车,我们从摩托罗拉半导体就开始了投入到汽车领域的研究,现有的一些产品已经卖了三、四十年之久。到目前为止,已经有超过4亿个汽车摄像机使用安森美半导体的图像传感器在路上跑,而且我们的产品质量也是有口皆碑的。
半导体在汽车应用中除了性能之外,功能安全也至关重要。自动驾驶不光要可靠,更要可信。当你开启自动驾驶车,坐在里面的时候,要让你感觉自在,要让你相信这部车的自动驾驶能力。要做到可信,就要从最底层的元件做起。
   网络安全现在越来越重要。对于汽车自动驾驶,如果有黑客可以控制汽车自动驾驶系统,或者在系统上做一些手脚,就会造成极大的危害。所以,网络安全对汽车而言越来越重要。安森美半导体是全球第一个把网络安全的功能加到图像传感器中的半导体公司,目前产品已经处于量产阶段。
安森美半导体的核心技术Clarity+能够把Viewing和Sensing技术结合。现在市场上人工视觉使用一个相机,机器视觉使用另外一个相机。而一个使用安森美半导体的相机既能做到机器视觉信号又能提供人工视觉信号,这是系统集成的一项技术。

二、汽车生态系统合作伙伴
   在目前,建立汽车生态系统合作伙伴关系非常重要。我们公司有专门的团队开发生态系统合作伙伴,与图像传感器,或者是激光雷达有关系的友商、供应商,都会开展深入的合作,建立合作生态系统。该系统分为三个层面:第一个层面是保证在产品上能够对接,即我们的新开发的产品能够和合作伙伴的新产品可以对接;第二个层面是在产品线路图上能够对接,即我们新产品的线路图能够与友商的下一代新产品的线路图对接上;最深层次的就是产品的概念上的契合,即在产品定义之前就跟友商、合作伙伴一起研究如何对新一代产品作优化。

三、全面的汽车智能感知阵容
   应用于汽车的另外一个技术是近红外+(NIR+)像素技术。该技术原来在安防领域最先开发,而后应用到汽车领域。汽车在夜间行驶的时对近红外的要求非常高。我们现在开发的产品的近红外频段在大约850纳米至940纳米之间,增加了约4倍的近红外灵敏度。感光度提高有2个好处:第一,如果感光度低,低照度就不好,捕捉信号的效果就不完整;第二,如果感光度低,可能要用LED来补光,大功率的LED会产生非常大的功耗,如果近红外灵敏度提高,首先可以省电,再者可确保信号捕捉的全面,提升信号清晰度。这项技术在汽车应用上也越来越广泛。


   另外一个应用是LFM(LED Flicker Mitigation)技术,即LED防抖技术。因为LED在闪烁的时候,频率都不一样,几乎没有一个业界标准。比如,红绿灯,如果摄像机的频率和红绿灯的频率不吻合就捕捉不到信号。所以,在汽车LFM对整车厂而言是非常大的挑战。我们目前的技术可以在获取信号后从软件分析延迟(Latency)和功耗,从传感器硬件上直接解决问题。
   现在整个图像传感器有两个不同的技术:一个叫做卷帘式快门,一个是全局快门。全局快门就是一次性即时捕捉所有的信号。卷帘式是一行一行的扫描,从第一行到最后一行,中间会有时差,所以当拍摄高速运转情况下的物体时,图像就会显示变形了。但如果采用全局快门,拍摄出的效果非常清晰。七、八年之前,我们在工业扫描行业拥有超过60%的市场占有率,就是因为这项技术。这项技术目前已经发展至第八代。和竞争对手相比,我们至少超过他们的两代技术。之后该技术也会应用到汽车上,特别是在驾驶员疲劳监控方面。



这是我们在汽车领域全方位的智能感知阵容。在视觉和感知的应用方面,我们有100万、200万、300万、400万像素的SOC,我们的竞争对手没有一家有这样完整的系列。
   在ADAS(先进驾驶辅助系统)和自动驾驶方面,我们也开发了一系列产品。例如,我们宽动态技术能够达到140dB,目前半导体行业最多的是120dB。20分贝的差距对客户来讲,特别对人工智能的算法来讲是相当大的差距,甚至关乎能否识别差距。在比如我们的100万、200万到800万的像素微光机,其感光效果非常好,目前市场的L4自动驾驶基本上就是使用800万像素这一款产品。
   舱内应用,如驾驶员监控系统(Driver Monitoring System)成长速度非常快,我们几乎全系列的,现在用到最高200万像素,因为太高了,中央处理器没有那么大的能力去处理。
   边缘计算方面,我们把传感器的处理单元称为SPU(Sensor Processing Unit),我们的产品现在可以支持100万、200万、300万像素的处理。
   再加上我们的毫米波雷达和激光雷达,我后面会介绍。


   现在汽车应用的发展主要在这三个方向:一是车外的人工视觉,包括环视、后视,这是供人看的;二是车外的机器视觉,包括ADAS、自动驾驶。三是舱内监控,除了传统的驾驶员疲劳监控,现在除了疲劳监控之外,还有疾病检测、情绪/生理检测,安全气囊精准调整、人机互动(Human Machine Interaction)、虹膜识别(Iris Detection)和人脸识别等。人机互动,包括手势识别功能,如调整舱内温度、听广播、打电话等都可以用手势来操作。除了对驾驶员的监控,还有对乘员的监控,比如robot taxi(机器人出租车)的很多的功能都需要舱内监控,包括安全带提醒、儿童在场检测、物体检测和宠物检测等。这都是未来自动驾驶都要涉及到的一些应用。





   共享乘车是未来汽车发展的趋势,特别是自动驾驶领域。我们家中的车,一般平均每天开1-2两小时,多数时间停放在家中或者公司的停车场,95%的时间处于闲置状态,汽车的使用寿命在8000个小时左右。未来的趋势是共享车,尤其在robot tai领域,未来的汽车几乎24小时都会行驶在路上,90%的时间处于使用状态。这样的强度在以前车的设计和开发中是没有计划到的。再者,车辆由于是大家共享的,很多的功能和要求和私家车会不同。安森美半导体在几年前就开始这方面的布局,我们现在产品设计都是按照这样的要求来设计的,包括我们的质量检控、产品评估。
   自动驾驶另外一个需要保障的是功能安全,功能安全就是要做到可信。整个自动驾驶系统,现在故障率单位标准是100FIT(Failure in Time)。对于子系统可以允许故障率单位标准是10FIT,对传感器就是1FIT,这是非常高的要求。要实现这样的要求,一是通过工程判断,做一些分析模拟来避免这些风险,判断它是否会有一些高风险,以及什么样的风险。这是从工程分析,它的风险非常高,可靠性不高。二是通过路上测试,现在很多自动驾驶汽车,在各个国家,包括国内北京、上海、深圳、广州,都发了路测执照。但路测再久也不能保证100%万无一失,总有遇到特殊情况或者极端情况。这不光是我们,所有的半导体公司都会遇到这样的特殊情况,当图像出现问题,人工智能就无法识别,或者能够识别也会花很长时间,造成延迟。我们在很多年前跟欧洲整车厂开始做功能安全时,采取的方法是把所有故障全部分析出来,再把这些故障注入到芯片,让它产生这些故障,以鉴别芯片的可信度。目前我们已经做到大概超过8000个失效模式,每一款产品8000个模式都要输入进去,看它的反馈。我们还专门开发了一个安全手册(Safety Manuel),客户在使用我们产品时,客户根据这个手册来设计它的系统,满足系统功能的安全要求。所以,这是我们跟竞争对手不太一样的地方。网络安全是大家关注的问题。网络安全跟图像传感器也是有关系的,而且涉及非常大的潜在风险。安森美半导体会把生产的芯片交给全球知名的一家反黑客公司,去让他们做入侵测试。仅仅一礼拜的时间内,他们就找到了十几种入侵方法。关于网络安全的国际标准,到今年年底就会出来。
   例如,左边这张图像是黑客将过去的一张没有车的图像重新使用,对现实路况进行篡改,人可以辨别真假,但是人工智能却没办法识别实际上前面有一辆车。这是简单的例子。我们公司跟客户在几年前已经在研究此类状况,去年年底我们有一款800万像素的图像传感器,就具有这样的网络安全功能,现在在很多自动驾驶领域得以应用。

   下面简单介绍一下我们目前自动驾驶毫米波雷达的进展。这一款产品现在已经处于客户评估阶段。它的优势是可以降低整个系统的成本,目前市场需要4个发射器,而我们只需要2个就能达到同样效果。随着L2、L3、L4和全自动驾驶的需求增长,以后的长距、中距和短距的毫米波雷达随着它的成本降低需求量越来越多,在汽车上的应用也会越来越多。

   这是我们激光雷达的例子,我们收购的这家激光雷达的公司,本身已有十几年的历史了,原来它在医疗设备雷达这块市场占有率最高。我们收购以后,将激光雷达技术转入到汽车应用。我们这款产品是目前市场上第一款达到车规的激光雷达。而且这款产品使固态雷达成为现实。现在一个激光雷达基本需要上万美金,我们这款产品将成本降到几百美金,因为它不需要机械式的雷达扫描,完全可以使用闪光的方式。


   工业机器视觉和边缘人工智能的应用非常广泛。近几年随着人工智能的开发,工业机器视觉和边缘人工智能越来越受到业界重视。除了传统工厂自动化、智能化工厂的发展,机器视觉还在智能交通、新零售、智能楼宇/家居、机器人(无人机、服务机器人、工业用机器人、送货机器人、合作机器人)等领域不断发展。目前,安森美半导体,凭借全方位的产品阵容,成为工业机器视觉的领袖。





   在汽车领域中也是一样,安森美半导体为客户提供全方位的产品服务。我们既有CMOS图像传感器,又有CCD图像传感器,可达到上千万的VGA(Video Graphics Array,视频图像分辨率)。比如,我们在两年前的上海机器视觉展推出PYTHON系列,轰动业界,国内厂家纷纷使用这款产品。今年我们推出X系列,在PYTHON系列的基础上又进一步提升了性能。

   XGS传感器系列采用3.2微米全局快门CMOS设计,降低了设计尺寸。它的性能非常好,包括高宽动态,低功耗架构、低噪声。同时,安森美半导体拥有全系列像素的传感器产品,客户的一个摄像机可以支持多种分辨率。
如果大家对工业相机了解的话,29x29mm是工业上使用的标准相机尺寸。现在的一个困境是,因为相机尺寸是标准固定尺寸,但是如果对相机更新换代,更换到更高像素,操作就非常难。一般讲像素大、芯片就大,29x29mm 的 尺寸就太小。XGS传感器系列采用紧凑占位,在同样29x29mm尺寸内像素点就会提高,现在PYTHON系列可以达到1200万像素,XGS系列可以达到1600万像素。目前,1200万、800万像素的传感器都已经在量产。

   在机器视觉领域,业界规模最大的两家就是我们安森美半导体和索尼。除了客户市场反馈的较高性价比,我们PYTHON系列是目前市场上唯一一家在29×29mm设计尺寸内做到1600万像素的产品。我们的产品不仅尺寸小,速度帧率也非常高,信价比也高。从产品范围来看,我们从低端、中端一直到高端皆有产品系列,并且有很好的应用支持。

   XGS 45000系列,画面像素非常高,功耗低,3瓦的功耗对高端相机来说已经非常低了。可以支持8K的视频,可以用在摄像机、专业摄像机身上,每秒60帧。不仅可以用到机器视觉,还可以应运用到高端安防,从远处也可以人脸识别。这是我们竞争对手在工业上的应用的效果,它的监控面积很窄,这是因为每秒钟所能传输的像素大小不同会影响最终效果。如果用2000万像素,这个线路板只能看到其中一部分,使用我们4500万的系列就能看到线路板的全貌,不需要多次曝光、多次采样,不需要两个摄像头,一个摄像头一次曝光、一次采样就能完成,而且看得非常清晰。这里面所有的信息,包括Barcode信息都可以看得非常清楚,这给人工智能后端处理提供了很好的条件。

KAI-50140 CCD图像传感器  
   这是一款5000万像素的CCD图像传感器。CCD传统优势就是图像质量非常高,应用于高端相机,但成本也高。现在很典型的应用例子就是4K平板检测。4K平板检测现在已经从LED过渡到OLED,OLED和LED最大的区别是LED有背光源,而OLED是每个像素本身带一个光源。由于每个光源的均匀度是不一样的,给检测带来了挑战。要保证在检测的时候能够看得非常清楚,将LED光源的不均匀度分辨出来,现在只有CCD图像传感器能够做到 。
   目前AI技术、5G、IoT(物联网)不断发展,云端、物端、边缘计算也应运而生。云端计算速度非常高,感知、识别或判断、决策、行动,这四个步骤都在会云端得以处理,但它的问题是大量数据送到云端成本非常高,延时性也不好。节点就是物端。边缘设备基本上有两种,一是处理密集型,有些设备像机器人的电池储电量非常高,因为要保证机器人的行走、运动,所以对传感器智能和功耗要求并不高,它需要终端有更高的处理能力。另外一种是IoT的,这些设备有时会放在一个地方一两年,因此对耗电量的要求非常高,同时对灵活使用性要求也非常高的,因为常常需要的时候才叫醒它,不需要24小时运转。



   AR0430、AR0431就是为IoT设计的。它的最大的一个特点是低功耗,在一帧的时候只有8毫安,而且其帧数可以调节,可在1帧至120帧调节。典型的应用是家中的监控相机,没有人在家里,相机就不需要费电,一旦人走动就会触动它开启。这个是我们正在开发的一款产品,还尚未发布。该产品类似全局快门,实际上它是卷帘式快门,但功能相当于全局快门。速率非常高,每秒250帧左右,具有成本优势,因为卷帘式快门成本较低,全局快门成本较高。其次是功耗低,现在在1帧的情况下少于2.5毫安。而且它有运动检测,可以自动唤醒。在没有人的时候,它处于休息状态,一旦有人运动,它便可以快速自动唤醒,立即进入照相功能。另外,还使用到 NIR+技术,来保证有效的夜间成像。最后,芯片尺寸非常小,几乎可以隐藏起来。

   随着人工智能的发展,智能机器人需要具有空间感,不能只是平面上的感知,还要感觉到这个人在什么位置,离我多远。目前深度映射技术有五种方法:立体视觉、结构光、飞行时间、Super Depth和雷达。我们的技术就是只需要一个摄像头,一个芯片,在不需要任何补光的前提下,就可以同时提供彩色图像和深度图像。这个客户评估下来,效果非常好。对于服务机器人、家用机器人感知周围的深度是非常合适的。

激光雷达
   这是我们的激光雷达,是今年刚刚推出的一个产品,叫做Pandion,是矩阵型的。固态光源Flash可以感知三米内的深度,扫描式的波速控制 (Beam Steering),则可以感知到100米左右的深度。因为它采用了矩阵型感光点,形成400×100的矩阵。区别于传统的点云(point cloud),我们的激光雷达已经形成了图像了。0.1的lux(勒克斯,照明单位)的环境光肉眼几乎已经看不到,但是通过我们Super  DepthTM技术就可以看到。安森美半导体收购这一家公司有一个很重要的原因,激光雷达传感器实际上相当于图像传感器30年以前的技术,但是我们这么多年开发出来的图像传感技术未来完全可以融合到激光雷达的开发上。所以,这是我们走的第一步,把激光雷达矩阵化,变成图像,以后我们提到的可能就不是LiDAR point cloud,而是LiDAR image。

   这是一个和人工智能有关的应用。刚才讲了深度感知,这个实例展示了门禁、闸口人脸识别怎么防伪。国内的一家客户给我们提出了这样要求,我们做了这样一个开发尝试。我们用相机同时提供彩色图像和深度图像,2D相片识别后出来效果没有深度的数据,是平面的。所以,我们通过CNN(卷积神经网络)深度学习把感知的可靠性提高了。

总结一下:
   第一,安森美半导体是2016年至2019年连续四年获选“世界最职业道德企业”。
   第二,在至关重要的应用领域成像方案,安森美半导体是市场领袖。比如汽车自动驾驶、工业机器视觉、边缘人工智能等。
   第三,安森美半导体是全球唯一一家提供全方位智能感知功方案的供应商,包括超声波、成像、毫米波雷达、激光雷达和传感器融合。
   第四,我们公司之所以能够走在行业的前端以技术领先,最重要的一点是我们悠久的创新传统和持续投入。
   第五,中国市场对我们非常重要,我们在国内有三个制造厂,几百个技术支持和销售团队,汇集了来自各个高校毕业的人才。


媒体问答环节
   问:刚才您讲到图像传感器的像素越来越高,动态范围越来越宽,数据量越来越大。在数据传输和处理方面会不会有更大的挑战?安森美半导体只是做SP边缘计算方面,其他的这么多数据处理和传统挑战怎么解决呢?是和友商合作吗?
   易继辉:目前传感器还不能实现数据的直接处理。但是我们正在和客户和友商探讨如何实现更智能化的传感。比如自动驾驶中,树、房子、路灯等信息是不重要的,但是关于其他车辆、行人的信息是至关重要的。在信号处理时就对一些数据作处理,或者在信息采集阶段,传感器里就能鉴别出哪些信息是重要的,这是我们努力的方向。
   问:毫米波雷达和激光雷达在自动驾驶领域有各自的优缺点,您怎么看待这两个产品的应用前景和发展趋势?安森美半导体在这两个产品的布局是怎样的?
   易继辉:特斯拉的CEO埃隆•马斯克在上个月的产品发布会上,就把激光雷达贬低得一塌糊涂。目前,业界对激光雷达讨论得热火朝天。因为埃隆•马斯克坚信图像,他说特斯拉只需要用图像,就可以实现全天候自动驾驶。
   但每一家看法不同。未来自动驾驶可能是多传感器的融合。第一,如果真正要实现自动驾驶,一定要保证全天候。现在雾天,大雾天,下雨天的图像识别效果是平的,这种天气即使肉眼都看不清楚。第二,自动驾驶有一个非常重要的指标——安全性能,要求是双保险。如果图像相机出现问题,另外一种传感器可以提供信息,让你做出判断。所以“双保险”非常重要,需要有多种传感器的支持。
   激光雷达用光(虽然不是可见光),所以它和图像传感器一样有类型的缺陷,比如雾天的识别效果不好。毫米波雷达虽然对金属很敏感,但是雾天、雨天时的穿透力很好。同时,毫米波雷达能侦测感知到移动物体的速度,激光雷达和图像识别感知不到速度,只能看见东西。所以,每个传感器在整个智能化设备中都有它的独特的作用。所以,我们认为传感器融合是个趋势。
   目前传感器都有行业壁垒:做毫米波雷达就要把毫米波雷达做到把极致最大化,不用管别的东西。做激光雷达的公司也是这样,想要取代所有的传感器。图像也是如此,普林斯顿的一个中国教授Professor  X非常有名,他有个公司叫做Auto X。他就百分之百认为图像传感器可以取代其他所有传感器。但是,举个简单的例子,在高速弯道上行驶的时候,毫米波雷达不知道你要拐弯,不知道前面是弯道,因为雷达只是一个方向,车往什么方向走,它只能朝着这个方向走。但是摄像头可以识别前面需要拐弯了,就可以内部通知毫米波雷达做一些转向,你就可以实时地让毫米波雷达和激光雷达都要按照你想要走的路线行驶。
   另外一个例子,还有要捕捉在很远地方的某一个物体,用毫米波雷达获取的信号量不大。但是你可以用图像传感器,截取移动物体的部分图像,这对汽车来说非常重要。所以,传感器融合非常重要。但如果有行业壁垒,两家公司因为竞争关系拒绝沟通。所以,安森美半导体的优势是把所有传感器的功能融合起来,实现结果是最大化,并进行创新。这是行业隔阂情况下,达不到的运作模式。
   问:您好,关于您讲到的网络功能安全会对8000种失效模式进行试错。除了试错检测,在产品本身的技术上有哪些实现网络安全的?对于自动驾驶来讲,这8000种模式是不是不够全?
   易继辉:8000种模式是图像传感器本身的线路失效可能出现的问题,包括短路、信号削弱,和路况没有任何关系。在所有这么复杂的节点中,每个节点我们都要去侦测。所以,8000种失效模式是图像传感器本身的失效模式,和自动驾驶和路况没有关系。主要是起到保证功能安全的作用,所谓功能安全就是这个元器件是否它的线路可自检以提供完整、准确的信息。所以,8000种能否都覆盖,目前我们是从几百、几千,现在一直开发到8000,还在不断做,还有新模式我们都会加进去。
   问:技术本身上怎么失效检测呢?
   易继辉:整个产品从零开始设计起来的,因为线路本身需要有自检功能,线路设计跟传统图像传感器是完全不同。所以,有些竞争对手说自己的传感器及其他半导体产品也能满足功能安全,但是需要后端系统和软件来弥补。有一个词“COOE”,意思是产品本身带自检,不需要外面软件的辅助,即能满足到功能安全的要求。我们产品就能够达到这种能力。
   问:刚才您提到欧洲的卡车上把后视镜改小了,您说它之前没改的时候,由于面积大,可能会占用油耗或功耗的5-10%,这个数据可以确认一下?
   易继辉:这个到网上一查就可以知道,这是公开数据。
   问:现在通过这种图像传感器简化成几个或者是两个?
   易继辉:现在是一个,而且很小,以前都是长的,只是象征性的一个后视镜。因为欧洲法规规定一定要有后视镜,但没有说后视镜要多大,所以将其改小了。然后在驾驶室里设置了一个很大的屏幕,所以可以通过驾驶室的屏幕看在后面的路况。
   问:公共交通呢?
   易继辉:因为公共交通的速度不高,所以目前来讲还没有这种需求。
   问:关于工业方面,像富士康对外说他们有七座关灯工厂,晚上不用开灯,关灯工厂对图像传感有什么样的要求?
   易继辉:所谓的关灯工厂是照明灯,但在某些固定工位有局部灯,比如质量检测。所以它会保证自动化要求,有一些局部的灯。
   问:在工业市场,图像传感器未来发展趋势以及技术、市场方面有没有一个大概的信息能够透露一下?
   易继辉:基本上有几个趋势:第一,从性能来看,对图像传感器的像素的要求在提高,包括刚才讲到的29×29mm的工业标准相机。所以提高像素是一个趋势,特别是产品精度值。
   第二,从效率来讲,生产线,特别是组装线、流水线的操作速度非常快,分给每个工位的时间零点几秒,如果用两个相机来采集图像,整个生产线的速度会下降。如果像素大,一次图像传感就能够把整个拍摄下来,提高整个生产线的速度。
   第三,全局快门。像一些装瓶、药厂的流水线移动非常快,要及时把里面的标签和成分信息捕捉下来,这个要求一定要用全局快门技术。
   在全球来讲市场成长基本是10-15%,这已经算很不错,一般GDP都在5-6%、2-3%。在中国,基本上是在20%以上,国内现在人力成本也高了,大家都把更新换代、技术含量提高、质量提高,对工厂自动化、智能化工厂的要求非常大,在国内发展速度超越过了国际上的平均速度。
   问:请问,今年Q1汽车业务占到34%,跟去年相比是增长还是降低了?中国车市今年发展不太景气,前天刚公布了4月的数据,一直在跌,更是突破新低,您这方面的业务受到影响了吗?未来怎样布局?
   易继辉:我们的汽车的业务发展基本比较平稳,当然有一些波动,基本维持在都在30-35%之间的占比。
平稳的原因,第一是因为我们在整个市场的布局非常久,覆盖面非常广,大客户、小客户都有。另一方面,我们公司一直以来以行业平均增长速率的两倍增长来要求自己,你去看我们的财务报表,每一年都是行业平均增长速率的两倍。为什么能够以这样的速度成长,是我们在市场、产品和应用布局与选择的原因。
   目前,汽车行业不光是国内,美国、欧洲都在跌。对我们会有影响,但我们还在维持正增长,主要原因是汽车智能化在提高,相机等电子设备配有率都在提高。
   第三,我们公司的电源部门,在新能源汽车上中电、高电、低电都有很多产品。我看过一篇报道,去年国内整个行业销售量在降低,但是电动车、新能源车依旧在增长。所以,要以超过行业两倍速度增长,就得在每个细分领域去下工夫。
   所以,今年我们对业绩还是看好。
   问:第一,关于LiDAR技术,你们是固体的吗?成本是多少?
   易继辉:我们半导体的是固体的,但我们只做中间的传感器,不是发射器,是接收器,跟我们的图像传感器一样,用来接受信号。
   问:您提到上海那家公司是怎么回事?
   易继辉:你们可以去了解下上海那家公司,他的三个创始人都是从清华本科毕业,再到美国高校读研究生,在美国硅谷工作多年,现在回来开公司,专攻激光雷达技术,做的非常好,现在几乎全球所有的自动驾驶车都在评估他们。我们跟他们合作有几个方向,他们是业界第一家将激光雷达和图像传感融合的企业,现在他们是百度阿波罗的供应商。他们提供RGB图像和深度的输出,能够同时提供点云和图像。
   优势:第一,我们用的SPAD技术,传统的激光雷达是用APD。APD的感光率普遍较低,基本上一个光子回来的感光就是一个光子的感光。而我们的SPAD是一个光子回来会有超过百万甚至上亿倍数的增益,所以感光的效果非常好。
   第二,传统激光雷达感光器使用的是特殊材料,而非硅片,所以成本非常高。我们在硅技术上开发了十几年,现在已经非常成熟,所以我们的成本非常低。因为我们有高增益,对激光发射源的功率要求不高。所以,我们的芯片能够使激光雷达的系统成本降低。刚才我讲的机械式的激光雷达成本需要上万美金,而使用我们的芯片的雷达大概只有几百美金,我们的目标是把激光雷达商品化、大众化。
   问:Super  DepthTM测深度的技术,是如何做到的?
   易继辉:有一个词叫做PDAF (Phase Detection Auto Focus,相位检测自动对焦),目前在智能手机上使用。这个技术最早是我们开发出来,现在我们将这个技术运用到Super  DepthTM。技术的核心是通过两个相机镜头之间的距离差产生相差,用软件把距离计算出来。我们是通过两个像素之间的相差来捕捉深度信息,所以它不需要补光,也不需要两个镜头,仅需一个摄像头,但里面要做一些工艺的改变,这个工艺是我们自主研发的。
   问:它的安全程度能够达到结构光的样子吗?
   易继辉:没有任何问题。你说的安全程度是说可靠性?
   问:比如是否可以用在人脸识别上?
   易继辉:人脸识别是可以的。但结构光的精度非常高,因为里面的点云大概是15000点。我们的技术是没有点的,所以精度是在5%,如果是工业使用,就完全足够了,手机上支付可能不行,但是开机解锁是没问题的。
   问:硬件LED防闪烁是怎么做到的?
   易继辉:那个比较复杂。
   问:硬件方面还是软件方面?
   易继辉:硬件,需要对传感器进行设计。
   问:美国交通部的数据表示将来95%闲置车会被投入使用,对于这点我表示怀疑。比如,在中国,大家用车时间比较集中,一般在小长假或上下班。假设即使做到了,如果能保证了汽车95%的使用率,那么就不需要生产那么多的汽车了,这对整个汽车工业是一个沉重的打击。
   易继辉:清华大学的汽车工程学院院长李克强教授,以及一汽原来的李骏院士在公开场合都曾经提过,中国未来的趋势就是共享汽车,而且美国调研公司对全球市场上消费者的对共享汽车的接受程度进行了调研。结果出乎意料,欧美消费者接受程度非常低,而中国消费者的接受程度非常高。欧美对汽车有情节,一辆汽车具有一定的象征意义。而中国消费者,尤其是很多年轻人,觉得就是汽车就是为了出行,从A点到B点,但金钱允许的条件下,他们会选择拥有一辆车。目前上海已经有好几家共享车服务。我去问过上海张江对一些白领进行过调研,他们选择共享车的理由是一个价钱便宜,二是市内停车没问题,因为共享车有固定的停车点。所以,国内有其特殊情况。按照李骏院士和李克强教授的预测,中国的共享车发展会走在全球前面,不是说95%的车上路,而是一辆车的95%的时间都在跑。国内消费者上下班选择坐地铁,周末可能会开一下,汽车可能95%的时间是处于停的状态。共享车属于商用车,从A点到B点,B点到C点,一直在运行。
   问:易总,我发表一下对刚才问题的看法,其实您说的共享汽车,虽然教授都认为未来有前景,但我们看看共享单车就知道未来的结局。因为共享不是独有,很多共享单车都被“肢解”了。所以,我个人还是挺悲观的。  
   易继辉:“Robotaxi”机器人出租车。美国的Uber、Lyft,现在正在大力开发自动驾驶。按照美国标准,一辆出租车跑一英里需要成本3.5元美金,有人驾驶时成本需要5元美金,共享车成本需要4元美金。但如果是自动驾驶的话成本在1美元以下。所以从商业模式来看,是注定要走这条路的。美国的亚利桑那州去年年底开始Robotaxi收费服务,并在固定区域开始试点。自动驾驶最开始发展应该在商业用车领域,暂时不会涉及私家车。当然,中国有自己独特的情况。
   问:我觉得自动驾驶对中国都不太适用。昨天一位同事发了小视频,在上海高架上这个车可以自动交替通行,这个在上海可行,在北京绝对不可行。当时他问了一个问题,自动驾驶会怎么判断这种不同地区不同规则的情况,这其实就也是无人驾驶的一个问题。
   易继辉:但中国在雄安做了一件非常了不起的事情。在现有的基础设施和人的习惯下可能比较难,但是在新城市,新规矩实行起来相对容易。在美国,当时福特有福特T型车,大家几乎人手一车。后来出现的一个问题,怎样把车开到65哩、70哩。这在当时非常困难。最后高速公路就这样产生了,上了高速只能以高速行驶。现在国内无人驾驶高速公路也已经开始试点。无人驾驶不会从私家车开始,也不会在大城市开始,基本在新城市在商用车和特定路段先试运营起来,逐渐再扩展。这是一个趋势。十年前,谁会想到手机能够拥有这么多功能。科技发展速度那么快,再过十年二十年发展成什么样子,很难预料到。
   问:下面我有两个方面的问题请教您。一,您说2016年,市占率63%,到2018年的时候是81%,请问将近20%的增长是由哪些产品线带动的呢?与你们的并购有关吗?
   易继辉:安森美半导体在2014年收购了两家图像传感汽车部门,一个是Aptina (Aptina Imaging Corp.),原来隶属于美光科技,最早是由美国航空航天局实验室 (NASA)申请的专利。另外一家是Truesense (Truesense Imaging Inc.) ,原来是柯达图像传感器业务,由阿尔卡特朗讯贝尔实验室申请的专利。这两家合起来成为了我们这个部门的前身,我刚才讲我们这个智能感知部有着悠久创新历史,就是从美国航天宇航局和贝尔实验室的专利开始的,现在有几个技术高管都还是从那边过来的。所以,安森美半导体进入图像传感器行业是通过并购,但是从2016到2018年不是通过并购,而是通过我们的产品和客户服务的自然成长。  
   问:主要来自于哪些产品线?是传统图像的,还是后来的毫米波?
   易继辉:都是图像的,毫米波产品刚刚出来,激光雷达在市场还没有开始应用,主要是图像传感。图像传感是刚才讲的机器视觉,不是人工视觉。
   问:刚才您讲到SPU是集成了CNN的功能,集成CNN功能对安森美半导体的算法有什么要求?你们是自己独立完成还是和别人合作?
   易继辉:目前来讲,这块我们的芯片是给客户开发第三方算法预留出来的功能。但是在我们的芯片里,除了图像处理之外还可以做一些人工智能的分析。这是目前的状况。
   问:刚才你讲到Super DepthTM技术时有点疑问,您说它是根据相邻两个像素之间的差异来做判断的?这是否对它的使用环境有要求和限制?比如特别亮或者特别暗的环境,相互差异没有那么明显,它还能判断出来吗?
   易继辉:跟光线没有太大关系,只要能看得到、正常能感受到的东西,Super DepthTM技术就能感受出其中差异。我们的两只眼睛就相当于两个像素,眼睛有瞳孔和晶状体,而我们是把这两个眼睛做成一个晶体,只要光线进来,传感器像素能够感觉到光纤,从而能够分析出像差。
   问:之前您讲到这个产品最大化动态范围是远超出同类产品的,是通过哪种方式实现的?在汽车上应用的话,这样会不会在图像成像时间上长一点?
   易继辉:获取光线信号后,光转换成电,光电的转换是一个逐渐的过程,最后显示为像素。像素有一个“深度植景”的现象,即景的深度越深,电核的存储量越大,转化为电信号后,相应感光度越高。好比一个桶,光线相当于雨水。下雨时,桶越深越大,积蓄的雨量则越多,类比光信号转换成的电信号就越强。我们是在现有的桶旁边又开了一个桶,一桶装满了以后,可以使用另外一个桶里。两个桶感光,感光量就强了。简单讲起来是这么一个概念,但是是非常复杂的技术,因为都是关乎微米差别的制造工艺,如何把电流传输到下面的电容里面。
   问:刚才您说到图像和雷达的问题,在恶劣的天气下图像识别不了。我和其他研究自动驾驶的行家讨论时,他们谈到恶劣天气问题的时候,一般会强调V2X (Vehicle to Everything,车对外界的信息交换)的作用,从您的角度是觉得图像加雷达可以完全单独地解决自动驾驶的问题,还是说也是需要配合一下V2X 呢?这两者之间的关系?
   易继辉:现在行业发展有几个趋势:一是把汽车做到智能极致,把所有可能的传感器、所有的气侯天气、所有的状况全都能够捕捉和判断到,然后做出决策,这是以汽车为中心;二是车路融合,这个概念大概还有几十年的发展要走,到目前为止没有很好的技术能够解决。即使最好的汽车传感器能看的距离不超过250米,同时现在车厂要求,技术要可以辨别250米外的行人和车,但这就是最远了。车路融合的优势是,如果车路融合V2X车用通信后,远一点都没有问题,而且你能够了解对方的意向。比如,如果前面的车辆要拐弯刹车,自动驾驶看到前面的车速降了,它准备做降速动作,通过V2X就可以通知后面的车要准备降速了,这些是感知不到的。将来这都是多种方式的融合,因为自动驾驶是非常复杂的情况,不可能把所有的极端情况 (corner case) 全部覆盖,所以每个技术都有它的优势,就看最后整车厂和整个行业用什么样的。
   问:我有两个问题。一是关于雷达,随着自动驾驶包括AI,雷达发展速度确实很快,尤其在中国它的发展速度可能更快。刚才您也介绍了在雷达相关的技术和产品,但目前还是没有相关产品吗?
   易继辉:现在还没有量产,正在评估。
   问:您开篇的时候,说到安森美半导体在整个中国市场占有非常大的比重,那么安森美半导体在雷达领域未来布局有没有详细的计划?
   易继辉:这个雷达是毫米波还是激光雷达?
   问:可以两者都涵盖。
   易继辉:我已经几十年没有居住在国内了,对国内的看法基本是以第三者来看,比较客观一点。我负责的业务有25%在欧洲,25%在美国,50%在亚太。亚洲多数时候我在中国,所以我在客户和市场方面可以做出较好的比较。中国这些年之所以发展那么快,最大的特点,一是很愿意接受新鲜的东西,特别是汽车行业,国内整车厂对新东西都是非常有热情,想要尝试。欧美整车厂非常保守,新东西过来,有验证过吗?谁用过了?用了多长时间?所以,国内一是对新鲜的东西非常愿意尝试;二是发展速度非常快。像国内整车,一个新车从设计到开发到最后上市恐怕只需要两到三年,甚至更短,但国外要3到5年。所以,国内的技术更新换代比国外快得多。虽然我们全球都铺开了业务,但是在新技术上,我们看到的国内动作非常快,要比国外快得多。
   举个例子,两年前我们开发了一个非常新、非常高端的产品,国内已经量产了,而国外刚刚导入设计。这边看到一个新东西,马上拿过来。所以,这是中国的优势,绝对的优势。产品不一定要一次到位,可以五次,总比三次最后的结果要好。
   问:这个问题衔接到我第二个问题,刚才您说到安森美半导体是全球唯一一家覆盖到所有的传感器,这是产业发展的趋势还是其他的原因?刚才您说原来没有这样的产品,而是通过一系列的并购完成的。我想问这是一种趋势,还是一系列并购动作的巧合?
   易继辉:刚才我讲了安森美半导体的销售额以业界平均增长率两倍以上的增长,并持续了很多年。这些都不是随机巧合的,都是有战略、有部署,是一步步走出来的。因为技术上要领先,一定要有创新,所以,我们很多事情,包括刚才讲的我们是世界第一家做出宽动态的。现在我们走的这条路也是行业内没有尝试过的。而且这些公司是我们花了很长时间去找到,包括LiDAR这家公司也是花了两年时间跟他们接触沟通,一开始他们根本就不想要卖,最后同意卖,这不是随机的。我们觉得这个行业要真正走到创新,特别是自动驾驶,它的挑战非常大。各行业单一的感知 (sensing) 来做是不会有太大的创新,我们要做的事情就是主动地把它们融合起来。
   问:是否意味着未来汽车的传感器更多走向融合综合的方案,我们未来也是更倾向于做传感器系统提供商?比如刚才您提到的上海那家企业在激光雷达做得特别好,你们和他们也有这方面的合作,是否意味着未来细分领域,我们不一定是No.1,但我们可以通过新技术去做别的创新或者去开发产品,这是不是一点呢?
   易继辉:你的意思是说,我们要做系统吗?
   问:我的意思是说,您刚才说传感器未来应该走向融合的发展趋势,刚好我们覆盖了所有传感器的产品,在细分领域的发展上,另一方面,技术迭代更新比较快,我们的重点是不是更趋向于融合方向上,在细分上更多倾向于和别人的技术做合作,比如像刚才上海那家呢?
   易继辉:肯定有合作,包括跟合作伙伴的合作,包括跟竞争对手的合作,因为很多情况下与竞争对手合作,是有这种需要的。合作是肯定的,但我们的定位还是在半导体、芯片,我们不会去卖系统的,这不是我们的强项,也不是我们要做的。
   我们要做的是提供系统解决方案,比如光一个芯片对客户来讲没有用,但我们把整个方案做出来,客户拿过去做成产品,这是我们要做的事情,提供解决方案。
   问:除了汽车行业特别需要传感器不同技术的融合,在其他行业有没有一些应用的前景?
   易继辉:机器人。凡是要有环境感知的,比如机器人,国内包括工业用机器人和服务机器人采用的就是激光雷达摄像头,当然是很低端的激光雷达,精度不是那么高,辐射距离不是那么远。有些机器人已经在考虑毫米波雷达,因为它都是有优缺点的,根据它的应用场景,一定要三维感知,这个需要各种传感器融合。
   问:易总,您在一开始提到安森美半导体在渠道收入这块非常注重代理商,其他的半导体厂商看到的趋势是在慢慢去掉代理商,更多的是做电商之类的,能否分享一下在这方面你们的发展路线和规划,为什么与别的厂商不一样?包括能否分享一下别的厂商为什么这么做?
   易继辉:我不太清楚别的厂商为什么这么做。但是业界的基本情况是,代理经常会不知道客户是谁,经常不知道客户在做什么产品。因为代理客户都是上千上万,可能只知道几个大一点规模的客户。这是一个缺点。
我们公司对代理来讲,因为产品覆盖范围非常广泛,可以应用到各个应用场景下,大批量小批量皆有。有些产品只需要小批量生产,但我们不可能总配置相应的技术服务人员都去管理这些客户。所以,使用代理是合理的选择。我们把代理作为公司核心战略之一,用他们就要用到极致。以前的代理基本作用就是库存,先支付钱,把你的东西先买掉,客户要了再分过去。现在我们和代理已经做了很多年的一个模式叫做“Demand Creation”,即开发新的需求,而不只是对现有需求的维护。而且他们很愿意做这件事,因为Demand Creation模式下的利润会高一点。如果只是做库存,只能拿个利息,因为你出了钱消化了存货。所以,这是双方的都非常愿意的合作方式。
   还有一点,因为我们的芯片不是一个产品就能做出来的,我们的芯片需要其他的产品辅助,来共同完成最终的产品。我们很多代理是代理其他合作伙伴的产品,对他们来讲,卖一个FPGA (Field-Programmable Gate Array,现场可编程门阵列),若再加一个传感器,动作产值就会提高了。这对他们有益处,对我们来讲也有益处。因为客户需要整体方案,他有传感器,也有了FPGA。这就看他们的优势,就看各家公司怎么认可这些事情,以及根据各个公司的产品具体作选择。
   问:请您介绍一下对嵌入式视觉市场的看法?因为相机厂商都在发展嵌入式视觉产品,您谈一下针对这个市场,安森美半导体还哪些计划?
   易继辉:这是最近五六年、七八年开始的。主要满足的是工业自动化需求,自动化业务场景越来越多。不光是工业,现在农业也有一些实现了自动化、无人化,比如蔬果的摘采。但是摘采设备后面不可能带一个大计算机,装一个中央处理器,所以它叫做嵌入式,这个像机里就有完整的计算功能。这是市场的需求,自动化的范围也越来越广,应用场景已经不是传统的生产线。可以放一台计算机,接上几个摄像头来管控生产线的。而且很多是移动式的应用,需要移动就不可能带很大体积的东西。美国沃尔玛的Scan & Go一开始就是这样操作,它有12个摄像头,用了很大的处理器,图像很大量,因为它是靠电源,功耗非常大,下面一代它就走小型化、低功耗、多功能路线,且可以独立运营,可以移动。根据市场需求,这些公司都转型了,像你刚才讲的这几家,当他们4、5年前刚提出这个概念的时候,我们就和他们合作了。