特斯拉自动驾驶事故数量2020-特斯拉自动驾驶发生事故

tamoadmin 0
  1. 特斯拉的自动驾驶技术到底有什么玄机?
  2. 视频博主发布特斯拉"全自动驾驶"事故视频
  3. 特斯拉FSD自动驾驶测评中三次撞上假人模型
  4. 自动驾驶系统可以加装吗
  5. 最严重特斯拉肇事案引发拷问:幽灵事故是车主问题还是软件缺陷?
  6. V2X技术是什么鬼 竟可以让特斯拉自动驾驶避免车祸惨案

11月18日深圳,一辆蓝色?特斯拉Model?S突然加速,撞开了一辆出租车,然后继续加速撞上了一辆货车尾部。

这辆车的行驶状态比较特别,先是很低的速度在蠕行,随后迅速加速,而且第一次撞车之后依然没有减速。

这种操作是比较违背常规的,而且全程车辆的主动安全系统也没有介入。车主宣称是车辆失灵,特斯拉则声明是车主驾驶不当导致,双方未能达成一致。

特斯拉自动驾驶事故数量2020-特斯拉自动驾驶发生事故
(图片来源网络,侵删)

实际上这远不是特斯拉在国内的第一起“失控”***,随着Model?3去年年底正式国产,到疫情之后迅速大卖。

特斯拉近半年内,已经发生了足足9起疑似“失控”案件。司机均宣称是车辆突然失去控制,特斯拉则表示是车主操作不当,到底谁在说谎呢?

(1)事故频频,永远没有结论的罗生门

从5月21日杭州赵女士在地下***遭遇第一起“失控”***开始,特斯拉几乎每隔一段时间就会出现一次“失控”***。基本都是突然加速,最严重的一次是四川南充的一名用户,在富民街西门市场上车辆突然失控,造成26伤。

目前反响比较大的有9起***,除12月12日北京那一起***,未公布车主具体信息之外。其余8位车主刚好是4男4女,可见也并不是说都是女司机,错把油门当刹车,或者刹车当油门。

特斯拉的回复也比较千篇一律,比如此次深圳的“失控”***,特斯拉的回复就是,根据它们的后台数据显示,在车辆加速到发生第二次碰撞,期间驾驶人一直深踩加速踏板,而没有踩刹车,因此车辆才会一直加速。

包括之前南昌的一位车主陈先生也是,车辆超高速行驶8km,然后撞土堆烧毁。特斯拉的回复是后台数据显示,司机一直在踩加速踏板,没有踩刹车。

特斯拉的所有回复都是基于后台数据,目前没有任何证据显示,后台数据是刹车时,车辆突然加速。虽然车主们并不认可,但也无可奈何。

这让功夫汽车想起来当年的高考,确实经常有一些学习本来相当不错的学生,最终考试成绩却是灾难性的。有的确实是发挥失常,有的坚信一定是批阅出现了问题。于是这部分学生就会去做一件事,查分。

那时候的查分是什么样的呢?考生和家长是看不到试卷的,如果要求查分,就会调出你这一门的试卷分数,然后把每一题的分数用计算机加一遍。因为之前本身就是计算机加的,出错的概念趋近于零,因此大部分考生和家长都是失望而归。但纵使如此,每年都还是有爆出来,确实有计算机因为种种原因“加错”的现象。

特斯拉的所谓后台数据其实也是如此,和计算机做加法一样,自然出现错误的概率极低。后台显示加速,车辆当然加速了,至于司机到底有没有踩刹车,这本身就是一个“罗生门”,司机不可能说的清楚,也根本无从证实。

(2)问题频出,控制方式是关键

普通燃油车型刹车,是通过发动机运行,驱动真空泵产生真空。踩下刹车踏板之后,通过真空助力实现刹车。而电动车多***用电子助力刹车,特斯拉也不例外。就是根据踩下刹车踏板的行程大小,电机驱动制动钳夹制动盘来实现制动。

这两者本身并没有什么高下之分,但在控制实现上略有差别,而特斯拉最大的特点是,它的刹车控制与其他电动车也不一样。

特斯拉的制动系统完全是由软件控制,电控运行的,它的全部工作信号,是来源于刹车踏板上的信号传感器。然后特斯拉所有系统的软硬件控制都是一体的,并最终通过总线通讯控制。而且特斯拉的系统内部,传感器和执行器之间,极少***用硬线连接,全部通过总线控制,这一点是很可怕的。

它的优势在于,系统高度集成,极大地降低了布置难度和成本,只要总控制器的系统足够强大,理论上它的控制精度会更高,响应会更快。

缺点就是缺乏后备处理机制,一些都依赖于总控制系统的稳定性和传感器的可靠性。比如普通燃油车,感觉刹车不太好用了,保养一下,或者拆开看一下,是哪个部分出现了问题,它不会一下子就失效。大多数情况会先变得不好用,再失效,并且失效后不会自动恢复。

而特斯拉的刹车失效可能就是一个瞬间,或者一个信号识别不准,它的加速信号也是一样的机理。这个概率极小,但造成的后果可能就是万劫不复的。

事实上,在特斯拉的问题频频爆出之后,已经有大量车主反馈自己也遭遇过类似问题。比如明明挂了R挡,车辆却偏偏往前窜。但这种一般是超低速状态,没有造成严重后果,而且可能系统瞬间就自我修正了。再比如高速的时候,踩刹车没有反应,重启了一下系统就好了,好在有惊无险。

这种情况很难确定到底是哪里的问题,它和传统机械故障不一样,甚至都不可能复现,***更是无从谈起,只能说大家开车的时候多多注意了。

(3)自动驾驶变自动***驾驶,背后的逻辑是什么?

除了频出的“失控”***外,特斯拉的另一块心病,恐怕是由于车主***用自动驾驶功能所出现的问题。特斯拉刚刚进入中国时,“Autopilot”的中文翻译是“自动驾驶”,后面因为问题频出,又自己改成了“自动***驾驶”。

因为它自己也知道,自己的***驾驶技术,仍处在Level?2级别,离真正的自动驾驶还比较远。

比如前不久一辆特斯拉轿车,在高速上撞上了一辆货车。车主的解释是,看四下无人,而且路况良好,就打开自动驾驶功能开起了小差。没曾想突然窜出来一辆大货车,他以为主动刹车功能会触发,没想到并没有,等到自己猛踩刹车,已经为时已晚,还是撞上了。

这个问题小车的责任其实并不算大,但自动驾驶模式为什么没能主动刹车,就值得探究一下了。主要是由于当时的环境决定的,当时天气比较好,阳光很刺眼,再加上货车本身也是白色的,可能导致系统没能及时识别,从而产生误判。

而关于特斯拉启动自动驾驶时,撞上消防车,撞上清扫车,撞上环卫车,或者撞上路边警车的新闻也频出无穷。这些案例单独拿出来本不值一提,但集中到一起,就指向一点。特斯拉的自动驾驶技术,对于静止或者低速运动的车辆,识别能力不足,这是由它的控制逻辑决定的。

事实上目前的半自动驾驶***技术,确实能在一定程度上解放驾驶人,但同时也非常容易诱发事故。

因此特斯拉官方一直在强调,使用Autopilot功能时仍然要注意路面和方向盘,它只能***驾驶,并不是自动驾驶。但是销售和拥垒们,却一直在吹嘘特斯拉的自动驾驶可以完全“不用管”。

(4)功夫拍案

任何技术都会有一个成熟的过程,比如早期的双离合变速箱,原理上讲应该换挡更快,传递效率更高。但实际用起来顿挫到令人害怕,并且极容易坏。

当累积了足够多的用户数据之后,现在新一代的双离合变速箱,确实已经算是比较好用了。虽然还时有顿挫,但多数时候还是很顺滑,响应很快的。但对第一批车主来说,可能就不知不觉当了小白鼠。

特斯拉在设计上确实有一些较为激进的理念,对或者错目前很难判断,也许它累积足够多的用户数据之后,会越来越完善。但前期尝鲜的用户们,一定要多加注意和小心。

毕竟系统的一点点小小的误差,对用户家庭来说可能就是万劫不复。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉的自动驾驶技术到底有什么***?

作者 | 周继凤

编辑 | 黎明

悲剧再次发生了。

8月14日晚,名为“美一好”的公众号发布讣告称,8月12日下午2时,年仅31岁的创业者、上善若水投资管理公司创始人林文钦(昵称“萌剑客”),驾驶蔚来ES8 汽车 启用自动驾驶功能(NOP领航状态)后,在沈海高速涵江段发生交通事故,不幸逝世。

据《科创板日报》报道,林文钦的好友郑先生称:“蔚来工作人员告诉我们,事发时,这辆蔚来正处于NOP状态。”而蔚来内部人士回应称:“NOP领航***不是自动驾驶,后续有调查结果会向外界同步信息。”

***发生后,网络上掀起了有关自动驾驶技术的讨论。不少网友指出,车企为了商业利益, 在宣传时将“***”驾驶与“自动”驾驶的概念进行混淆 ,让用户过于信任和依赖这套系统,导致驾驶员很容易在开车时掉以轻心从而酿成惨剧。在蔚来这起事故之前,已经发生不少类似的安全事故。

几乎同一时间,美国国家公路交通安全管理局(NHTSA)宣布,由于发生多起特斯拉 汽车 与停放的紧急车辆相撞的事故,该局已经开始对特斯拉的Autopilot自动***驾驶系统展开正式调查。

对于一名 汽车 用户而言,“***”驾驶与“自动”驾驶的概念功能,本应该是最基本的认知常识。可悲的是,自动驾驶行业里的玩家长期以来都在夸大宣传,忽悠用户。

自动驾驶行业发展了这么多年,这一次,安全问题以及“过度宣传”问题,终于被摆到台面上来了——以生命为代价。

不止是这次悲剧的主人公, 在全行业的鼓吹下,大量的消费者正在接受甚至依赖自动***驾驶功能

卢米是一名特斯拉车主,他平日里跑高速都会选择开启自动***驾驶,在他看来,自动***驾驶的体验很好。

车主张鹭也发现了自动***驾驶的好处。“平日里开车,我只用手握方向盘,刹车和油门就不用踩了,系统会自动跟车,自动转弯,非常方便。”甚至有几次,张鹭感觉自动驾驶救了他的命。他回忆,特斯拉的自动驾驶有一些主动预警措施,比如在车道偏离、接近追尾时,关键时刻会给他提醒。

但是,已经逐渐习惯并且依赖这一套系统的消费者们,其实并不清楚自己开启的是怎样一套系统,以及这套系统是否存在风险。

很多时候,他们依据名字来判断。

目前,特斯拉针对自动驾驶推出了不同的软件包,其中,基础标配的功能被称作基础***驾驶功能(即AP),更高阶的软件包FSD,被称为完全自动驾驶。 由于特斯拉直接把更高阶的自动驾驶软件包取名为完全自动驾驶,不少车主直接把特斯拉FSD等同于自动驾驶技术

一名特斯拉车主坦言:“我其实分不清具体什么是自动驾驶,什么是自动***驾驶。但是有朋友推荐说,可以开启一下AP,效果挺好,我就跟着一起用了起来。”

人们也不知道,在所谓的自动***驾驶模式下,究竟什么可做什么不可做。

经朋友推荐开启自动***驾驶功能的特斯拉车主王盛,如今只要是跑通勤上高速或者上环线都会开启自动驾驶。他有时候会分心处理一些公务,有时候还会接接电话。

不止是国内,美国安全保险研究所在2020年的一项调查显示,有48%的司机错误认为,只要开启了特斯拉的“Autopilot”功能,不掌控方向盘也是安全的。

一些人太信任 自动***驾驶系统,以为开车时完全可以解放双手双脚

不少车主在网络上分享了抖机灵的做法,比如把矿泉水瓶、橘子绑在方向盘上迷惑系统,让系统误认为是驾驶员的手放在方向盘上。8月份,甚至有车主上传了一段自己使用***驾驶系统躺着开理想ONE的***,一度引发全网热议。

现代 社会 ,信任能更快地达成交易,但对于自动***驾驶来说, 过度信任,有时候却会送命 。早在蔚来这起致命事故发生之前,因为驾驶员过于信任自动***驾驶系统,已经酿成了多起悲剧。

2016年,美国佛州的一辆特斯拉Model S在Autopilot状态下与正在转弯的白色半挂卡车发生碰撞,特斯拉驾驶员不幸身亡;2019年,一辆特斯拉Model 3在Autopilot状态下以110公里/小时的时速径直撞向了一辆正在缓慢横穿马路的白色拖挂卡车……

美国国家公路交通安全管理局(NHTSA)在调查后发现,自2018年1月以来,特斯拉自动驾驶系统已导致11起事故,致17人受伤,1人亡。且这11起事故中有4起发生在今年。

自动驾驶的诞生源自这样一个逻辑,人类驾驶员会犯很多错误,而自动驾驶 汽车 犯错的概率相对于人类要小很多,会让驾驶变得更加安全。 为什么原本是为了让人类驾驶更安全的系统,如今成为了马路杀手?

这其实不仅仅是一个技术问题。

我们从自动驾驶的分级说起。

当下车企所宣传的“无人驾驶”、“自动驾驶”,其实都是L2级别的自动***驾驶。

根据SAE(美国 汽车 工程师学会)的分类,自动驾驶可以分为L0-L5级六个阶段。其中L0代表无自动***功能;L1-L2为驾驶***系统,驾驶员是车辆操作的主体;L3-L4为有条件的自动驾驶系统;只有到了L5才是真正的无人驾驶。

这其中最重要的分界线是L2级别。

L2及以下级别是自动驾驶的初级水平,这个区间的自动驾驶技术不具备“全自动驾驶能力”,是始终需要人类监管的驾驶***系统——事故主要责任人始终是人类驾驶员。

按照常规,一名驾驶员理应知道自己购买的车归属于什么自动驾驶级别。如果是在L2级自动***驾驶系统中,作为完全责任主体的驾驶员,则更应该明确认识到L2级自动***驾驶系统的风险。

但很多车企都在不遗余力地模糊L2这一界限,夸大自己的自动驾驶技术。

很长一段时间,特斯拉将Autopilot(高级***驾驶系统),当成“自动驾驶”对外宣传,直到发生多次安全事故,才不得不改口。而即便现在,特斯拉最高阶的软件包FSD,仍被称为完全自动驾驶。

至于国内,蔚来副总裁沈斐曾在微博中表示,车主们使用其自动***驾驶功能时可以“放心地边吃东西边开车”(相关内容现已删除)。

车企很清楚,如果直接表明自己是L3、L4级别的自动驾驶,那么一旦发生事故,责任方就会归于自己。于是,他们在宣传时打一些擦边球。

比如,4月16日,威马正式亮相了第三款量产车型W6。在官方宣传中,威马反复强调W6是“20万级国内首款无人驾驶量产车型”、“国内首款L4级别无人驾驶量产车”。

但实际上,威马W6仅仅在停车这个场景上,实现了L4级别无人驾驶。但很多消费者误以为“威马的所有出行场景都实现了L4级别无人驾驶”,“威马的W6是唯一实现了L4级别无人驾驶的量产车。”

这些夸大宣传提高了企业的曝光度,但在巨大的信息不对称下,消费者很有可被误导,误以为企业已经推出全自动驾驶技术。

著名自动驾驶公司Waymo曾放弃将自动驾驶称为“self driving”,更名为“autonomous driving”。Waymo的逻辑是:“ 精确的语言很重要,可以挽救生命 。”

反过来,我们可以套用一下Waymo的逻辑——车企们正在用模糊的语言把越来越多的人推向悬崖。

8月16日晚间,理想 汽车 创始人李想在朋友圈发文称,L2 、L3一类的专业话术,用户容易混淆且听不懂,建议统一名称为L2=***驾驶;L3=高级***驾驶;L4=自动驾驶;L5=无人驾驶,一个多余的中文字也不要有。

“最大化的控制期望值,避免自动和***出现在同一个状态下,***驾驶就是人的责任,出现自动两个字就是车的责任。”他表示。

再说回来,即便是L2级别的***驾驶,也不是100%安全。在当下,L2级别的自动驾驶***系统主要配备毫米波雷达以及视觉识别(摄像头),从而感知环境。其中,毫米波雷达对于前方完全静止的物体,有一定几率无法识别。而视觉识别是按照深度学习的逻辑来运行的,也永远无法达到100%的准确率。

也就是说,面对复杂的路况,自动***驾驶的识别无法做到100%精准。

对于驾驶员来说,在使用自动***驾驶功能时,永远需要保持警惕以备不时之需。作为系统的提供方,车企有责任有义务将自动***驾驶的功能及使用范围明确,并确保教会用户正确的操作方法

但就目前来看,在风险提醒上,各大车企做得相当敷衍。有媒体指出,蔚来NOP在去年10月更新上线,自动***驾驶功能推出或升级时,蔚来对车主的线上安全提醒都是非强制性的。

蔚来的这种行为就相当于,我把说明书摆在这儿,你愿不愿意看或者看不看得懂,都和我没关系。

很长一段时间,以上提到的这些潜在风险,都被自动驾驶行业的光环掩盖了。

近些年,自动驾驶行业蓬勃兴盛。

资本与行业玩家合力打造了一个看上去颇具颠覆性的出行故事,这个出行梦的核心就是自动驾驶技术。中国智能网联 汽车 创新中心预测,2020年至2025年,可以实现部分自动化或有条件自动化的智能网联 汽车 销量,占当年 汽车 总销量的比例将超过50%。

以特斯拉为代表的 汽车 制造商,加速了这一进程。

2015年,特斯拉第一次通过OTA的方式为Model S推送了Autopilot***驾驶系统。特斯拉车主们一觉醒来,发现自己的车突然获得了一些自动***驾驶功能,比如,在高速路上特斯拉可以自动保持车道、自动根据路况加减速等等。

靠着特斯拉的带动,越来越多安装着自动驾驶***系统的智能车上路。如今,一辆电动车如果没有搭载自动***驾驶,似乎不能够称之为智能车。

投资人开始意识到,卖车卖硬件或许不是最重要的,自动驾驶等软件服务才是最具想象力的环节。

而跨界造车也让自动驾驶上下游产业链火爆了起来。仅今年6月的第一周,就有3家自动驾驶公司相继宣布获得融资,总计融资超过32亿元。

整个市场变得大胆且激进。马斯克一度放话:“我们已经非常接近L5自动驾驶了。”为了搏出位、吸引投资人的目光,不少车企对外宣称已经实现L3、L4级别自动驾驶。

一位业内人士曾指出,已经量产的车企,很多完全没有自研能力,只能转头选择向博世、Mobileye等厂商***购成熟的自动驾驶方案。但这不影响车企们将之包装成自己的研发能力。

7月初的世界人工智能大会上,原华为智能驾驶产品线总裁兼首席架构师苏菁曾面对特斯拉的高事故率,痛斥其为“”。

一位用户在看完最近的报道后感叹:自动驾驶技术走向成熟的道路也是一段无数用户亲身试错的血泪史。

一位业内人士指出:“为了保证安全,技术层面以外,法律法规也需要适配自动驾驶的边界。”

但在操作层面,还有更多细微的问题需要解决。

国外有可参考的案例。2020年,美国高速公路安全保险协会IIHS发布了一系列ADAS功能的指导方针。其中,IIHS建议,自动化系统能够提升安全的关键就是确保司机需要始终参与车辆的操作。

当下,车企们防止司机分神的系统仅有两类。一是像特斯拉和一些主流车企***用的方向盘压力检测,如果系统检测到司机的双手离开方向盘达到一定时长后,便会分段执行警告、强制解除***驾驶状态、刹车等动作。另一种是安装面向驾驶员的摄像头来监控驾驶员的面部是否一直面向道路。

IIHS指出,这些都不是万无一失的方法。该机构建议,还应该加入检测方向盘是否被手动调整,调整了多少角度以及驾驶员注意力监控。这或许是一些更为实际的指导方法。

*题图及文中部分配图来源于Unspalsh。

***博主发布特斯拉"全自动驾驶"事故***

马斯克曾说会在2019年年底推出功能齐全的自动驾驶(Full?Self?Driving,简称?FSD),但现在已经到了2020年,特斯拉升级系统后除增加了“车辆召唤”功能,也并没有完全开放自动驾驶权限。对此,马斯克表示特斯拉希望通过训练神经网络来识别城市中可能遇到的每个物体并***取相应的行动,从而强行进入城市驾驶,这可能还需要数月的时间。

不得不说,尽管还需数月,但如果能在今年内开放城市内的完全自动驾驶,也足以令人惊叹。而最近有日本媒体拆解了特斯拉Model?3,更是宣称它的自动驾驶技术要领先其余汽车制造商6年的时间,究竟有什么玄妙?

什么是“Hardware?3”?

说起来特斯拉的自动驾驶技术,不能忽略的就是它的自研芯片,也就是在2019年4月发布的“Hardware?3”。

其实在最开始的时候,特斯拉并没有完全独立研究这块集成芯片,而是与?Mobileye?合作,但后来特斯拉产品在***驾驶情况下经历了一次事故,这显然没有达到预期的要求,所以二者不欢而散。随后特斯拉又携手英伟达,***用英伟达的芯片解决方案,但显然马斯克觉得这还不够,于是在2016?年请来“芯片皇帝”?Jim?Keller?担任特斯拉硬件开发副总裁,也正式拉开了自研自动驾驶芯片的序幕。

从成品的FSD?电脑中可以看出,里面包含了两块自研芯片。这两款芯片独立运行,拥有各自的电源、DRAM?内存以及闪存,也就是说,当其中任何一个出现故障,FSD?电脑依然会正常驱动汽车进行自动驾驶。

“Hardware?3”拥有60亿颗晶体管,每秒能完成144万亿次计算,能同时处理每秒2300帧的图像。对比特斯拉上一代处理器(HW2.5),FSD在性能方面提高了21倍,并且能够应对L5级别自动驾驶所需的感知层数据量和计算能力,目前来看哪怕与英伟达这样的芯片公司相比也丝毫不落下风。

“神经网络”才是重点?

想要在自动驾驶方面比其它汽车制造厂更好仅仅拥有一块自研芯片也是不够的。特斯拉之所以能在***驾驶领域拥有较好口碑,还有一个关键点,就是神经网络。

神经网络(NEURAL?NETWOTRK)现在对于用户来说并不再陌生,因为大家熟悉的手机产品很多都使用了这种机器学习方式,比如:Iphone?上的Siri。神经网络的工作原理的数学模型就像是生物神经网络。最主要的能力就是能够依赖大量的数据信息进行自我学习,而特斯拉拥有庞大的用户群以及数据量。所以特斯拉可以通过大量用户数据,教会机器识别车道线、车辆、行人、交通信号等内容。

具体来说,特斯拉会首先在神经网络中放置一个***数据集,随机***集大量数据然后进行标注,当神经网络在后续识别中存在识别不准确或者车内司机进行某些操作触发反馈机制后,车子会向总部回传这些数据,特斯拉会对数据进行验证修复,在经过海量数据学习之后,机器就变得更加智能,识别更加准确,同时更利于后续的路径规划以及决策操作。

根据之前特斯拉公布的一份数据,利用在全球的车队,特斯拉已经收集超过?160?亿公里的真实行驶数据,其中超过16?亿公里的行驶里程使用了?Autopilot?自动***驾驶系统,海量的自动驾驶数据也是特斯拉相比其它汽车制造厂更占优势的地方。

视觉传感器有何作用?

说完了特斯拉自动驾驶中的“大脑”,想要完成出色的自动驾驶功能,还有一个部分不可缺少,那就是车辆的“眼睛”,也就是视觉传感器,俗称摄像头。

在特斯拉看来,人就是通过两只眼睛来实现对外界的感知,车辆上的摄像头作用与之类似,而特斯拉产品上的的视觉传感器有8?个,并且还有毫米波雷达等***设备一起完成车辆在自动驾驶时对外界的感知。

总结

通过上述内容可以总结出,特斯拉自动驾驶技术的核心就是视觉感知+自我学习。而特斯拉这种通过神经网络来完成的“用户数据—自动驾驶—用户数据”提升闭环也能使特斯拉自动驾驶技术愈发的领先。

要说特斯拉完全自动驾驶功能何时能下放到现有产品上,很多行业人士乐观的认为将会在2020年内完成。反观其它汽车制造商,无论是传统品牌还是造车新势力,要么就被禁锢在传统的汽车制造逻辑中难以脱离,要么就是缺乏可用的大量用户数据。这些因素虽不说让它们在技术上落后特斯拉6年,但差距总归还是有一些的。据消息称,特斯拉的下一代芯片也会在两三年内面世,如再不加以追赶,特斯拉会不会在自动驾驶的道路彻底甩离这个时代呢?

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉FSD自动驾驶测评中三次撞上***人模型

***博主发布特斯拉"全自动驾驶"事故***

 ***博主发布特斯拉"全自动驾驶"事故***,特斯拉一直在公开测试“完全自动驾驶”,马斯克还曾自豪地宣称FSD Beta版从未发生过事故。***博主发布特斯拉"全自动驾驶"事故***。

***博主发布特斯拉"全自动驾驶"事故***1

 1月18日,特斯拉CEO埃隆·马斯克声称FSD(完全自动驾驶)测试版推出使用以后,就没有出过错。在此前一日,特斯拉的一名股东Ross Gerber在twitter上称,在FSD发布后的一年多里从未出过***意外或有人受伤,而同期美国则有20000人于交通意外。马斯克转发了这条推特,并确定的说:“没错”。

 而在早前两日,马斯克的这一确定性答案受到了质疑,一位叫 AI Addict的***博主分享了段其体验FSD功能的影片,影片拍于加州一个只有100多万人口的圣何塞。按***的说明,博主已经更新到今年1月5日所推送的 FSD Beta v10.10(2021.44.30.15)版本。***当中车辆在FSD的控制下大部分情况表现优秀,但当行驶到一段右转道路后,***到了3分30秒的时候,车辆右转后没有正确识别出道路边上的防撞柱,毫不犹豫的撞了上去,车内的人也立即被吓到,还好驾驶者一直都有注意路况,也把手一直放在方向盘上发生事故时立即介入,才没有造成更大的***事故。

 当然,特斯拉在网页和FSD功能说明当中一直提醒完全自动驾驶的用户:FSD处于早期测试阶段,使用时必须更加谨慎。它可能会在错误的时间做出错误的决策,所以必须始终保持双手在方向盘上,并额外注意道路状况。驾驶者需要持续关注道路,并准备好立即***取行动,特别是在盲区、十字路口和狭窄道路的驾驶时。现在看来,这种提醒还是很有必要。

 特斯拉 FSD Beta 的安全性一直以来也受到一些质疑,在不同的版本当中会出现不同的问题。比如在早前的9.0版本当中,转变后没有识别出路边的树木,没有识别出公交车道,没有识别出单行道,转弯后直接开到了停车位上行驶等一系列的问题。

 除此以外,外界的批评也包括特斯拉把还没有完成开发的功能直接交付给消费者使用,让人们在实际的行驶道路上使用这一系统不负责任。

 特斯拉的'自动驾驶系统,通过摄像头对外界物体进行识别并做出反应。正常的情况下可以识别路边的障碍物,雪糕筒,特殊车道的标识以及停车标志,目前仅开放给美国的车主付费使用。

 FSD Beta 自2020年9月底正式对外发布使用,对此感兴趣的车主可以在手机当中申请使用,而特斯拉则会根据车主近期的驾驶评分决定是否开通此功能,而事实上,大部分的车主都可以使用上这一功能。特斯拉则会在驾驶过程当中监控、搜集行车数据调整升级优化系统,这也是FSD快速提供升级包的原因。自动驾驶业内,普遍认为激光雷达配合高精度地图才是自动驾驶的解决方案,而特斯拉则反其道而行,完全抛弃激光雷达选择了相信当下摄像头所看到的东西,***已上传三天,特斯拉没有解释事故是否确实因FSD没有识别出路边的那一排绿色隔离柱而导致。

 2021年2月1日,美国国家公路交通安全管理局(NHTSA)要求特斯拉召回5.3万辆电动汽车,原因是这些车辆当中带有的“滚动停车”(rolling stops)功能与法律冲突,这一功能允许特斯拉以每小时5.6英里的速度通过有双向停车标志的车字路口。而美国的交规则要求,这一标志与红灯接近,当路口有这一标志的时候,即便周围没车没人,也必须在路口白线前停下3秒后确认路口的情况下才能继续行驶。而特斯拉的软件则引导车辆低速通过因此被召回。

 马斯克随后解释此功能不存在任何安全问题。他称:”汽车只是减速到大约2英里(3.2 公里),如果视野清晰,没有汽车或行人,就继续向前行驶。“

 一月中马斯克才刚称赞完 FSD Beta 自一年前***开始到现在,“从未”发生过任何错误,但最近这一车主的实测影片可是把马斯克的脸打的肿肿的,因为FSD Beta 的错误判断,车辆直接撞上路边的防撞柱。当然,这个事故也算不上严重,毕竟车辆没有受到严重的损坏也没有人员受伤,不知道这是否包含在马斯克此前的”意外“范围之内。

 美国NHTSA也提醒:“到目前为止,还没有任何一台市售车型可以实现自动驾驶,每辆车都需要司机操控。虽然先进的***驾驶功能可以协助司机避免碰撞或是遭遇交通事故,但司机还是必须随时留意驾驶状况与路况。”

***博主发布特斯拉"全自动驾驶"事故***2

 特斯拉一直在公开测试“完全自动驾驶”(FSD Beta)并非是什么秘密,上个月马斯克还曾自豪地宣称,上线一年来,特斯拉的FSD Beta版从未发生过事故。

 不过,近日一辆使用完全自动驾驶FSD Beta版的特斯拉,在转弯后撞上路边护栏的***得到曝光, 这被认为是FSD Beta版上线后的第一起事故

 从公布的***看,这台特斯拉正常右转,然而转弯后路线发生了偏差, 径直撞向了用于隔离机动车道和自行车道的雪糕筒护栏 ,引得车内驾乘人员一阵惊呼,甚至爆出了粗口,司机立刻接管车辆,踩下了刹车。

 好在雪糕筒为塑料材质,加上应对及时,仅仅是撞弯了其中一个,车头有点受损,其他无大碍。

 车主表示, 已经将该案例上传到了特斯拉反馈部门

 值得注意的是,此前一位特斯拉Model Y车主曾向美国国家公路交通安全管理局(NHTSA)投诉称,自己的车辆在使用FSD Beta的时候发生了事故,但截至目前这一投诉尚无法得到证实。

***博主发布特斯拉"全自动驾驶"事故***3

 2月10日消息,名为AI Addit的YouTube用户提供了首份***证据,证明特斯拉的“全自动驾驶”(FSD)套件并不像埃隆·马斯克(Elon Musk)所称的那样安全。

 AI Addit的***是在美国加州圣何塞市中心的一次驾车过程中拍摄的,首次展示了激活FSD系统的特斯拉Model 3与自行车道护栏相撞的场景,并证明FSD应该对这起交通事故负有直接责任。

 在***中,可以看到特斯拉最新版本的自动驾驶软件FSD Beta Version 10.10指示Model 3转向将自行车道与机动车道隔开的护栏。尽管司机急忙踩下刹车,并疯狂地打方向盘进行躲避,但AI驱动的车辆还是重重地撞上了护栏。

 令人担忧的是,在***中,还能看到这辆特斯拉汽车似乎因为软件原因而闯了红灯,它还试图沿着铁轨行驶,后来又试图驶入有轨电车车道。

 AI Addit的驾车***长约9分钟,撞车***发生在大约3分半钟的时候。这位YouTube用户似乎坐在靠近方向盘的驾驶位上,后座还有一名乘客陪同。在***中可以听到AI Addit的声音:“我们撞车了,但我已经把刹车踩到底了!”乘客回答称:“我真不敢相信这辆车竟然没有停下来。”

 马斯克上个月曾声称,FSD Beta系统从未发生过事故,但新的***提供了证据,证明事实并非如此。在AI Addit记录的***中,可以看到司机的双手只是轻触方向盘,而不是握紧它,完全由FSD控制方向盘的运动,使汽车遵循地图上预先定义的路线行驶。

 FSD是专为特斯拉汽车提供支持的先进司机***驾驶软件,属于L2级自动驾驶系统,这意味着该系统可以控制汽车的速度和方向,允许司机双手短暂离开方向盘,但他们必须时刻监控道路,并做好接管车辆的准备。这项技术在购车时是可选的,包括几个自动驾驶功能,但仍需要司机监督。

 在发生撞车事故的前一刻,可以看到司机双手猛打方向盘,但为时已晚。虽然车辆损伤并不严重,但被完全撞倒的护栏在汽车前保险杠上留下了油漆印记。

 在这段***发布前不久,特斯拉被迫召回近5.4万辆电动轿车和SUV,因为它们的FSD软件无法识别停车标志。美国安全监管机构2月1日发布的文件显示,特斯拉已通过“空中软件更新”禁用了这一功能。此外,特斯拉在与美国国家公路交通安全管理局(NHTSA)官员举行两次会议后同意召回受影响车辆。

 许多司机正帮助特斯拉测试FSD系统,它允许车辆以9公里的时速通过带有停车标志的路口。在AI Addit的测试中,该系统可能没有意识到自行车道上有一段路被封锁了。在***的大部分内容中,Model 3似乎在检测绿色自行车道护栏时遇到了问题,这些护栏散布在圣何塞市中心,这辆车几次朝它们驶去。

 这段***似乎突出了FSD的其他不足之处。FSD还处于测试阶段,因此将在广泛推出之前进行改进。在***中,这辆车的AI试图指示其左转进入繁忙的主路,尽管当时正有一辆卡车迎面驶来。不过FSD似乎在“耐心”等待行人过马路和避开其他车辆方面做得很好。

 2021年年底,特斯拉表示,有近6万名车主参加了FSD Beta***。该***只适用于该公司特别挑选的特斯拉车主,以及安全得分高达100分(满分100分)的司机。然而,一位投资者去年10月透露,他的安全得分只有37分,但他被允许使用FSD Beta。

 这些安全得分是由司机驾车时的行为决定的,司机允许特斯拉使用车载软件监控他们的驾驶过程。特斯拉警告说,任何使用L2级自动驾驶系统的司机必须随时准备介入干预。

 FSD是特斯拉司机***驾驶系统Autopilot的升级版,后者曾引发多起致命事故。到目前为止,已经核实了12起涉及Autopilot的亡事故,以及一系列非致命的撞车事故。

 尽管马斯克在1月份断言FSD Beta的安全记录无懈可击,但NHTSA在2021年11月收到了第一起投诉,称FSD导致一名特斯拉司机撞车。这起事故发生在加州布雷亚,当时一辆激活FSD软件的特斯拉Model Y驶入错误车道,并被另一辆车撞上。

 无独有偶,最新公布的监控***显示,2021年8月,激活Autopilot的特斯拉Model Y撞上了停在美国64号高速公路旁州际公路巡逻队的警车,导致警车失控翻滚并撞上了站在路边的副警长。随后,这辆车侧扫指示牌,最终滚下山坡撞到树上。 据称,这辆特斯拉汽车的司机是德文德·戈利(Devainder Goli)医生,他在汽车处于自动驾驶状态时正在手机上看**。

 自动驾驶汽车专家萨姆·阿布萨米德(Sam Abuelsamid)表示:“这些系统都不是自动驾驶系统,而是司机***系统。所有系统都是为司机观察道路而设计的,随时都要保持专注。事实上,在特斯拉的系统中,司机的手也应该总是放在方向盘上。制造商可能经常夸大系统能做什么,而不会谈论它们不能做的事情。”

自动驾驶系统可以加装

特斯拉FSD自动驾驶测评中三次撞上***人模型

 特斯拉FSD自动驾驶测评中三次撞上***人模型,测试团队驾驶员驾驶Model 3在开启FSD的状态下进行***人碰撞测试,然而车辆一连三次都撞上儿童***人模型。特斯拉FSD自动驾驶测评中三次撞上***人模型。

特斯拉FSD自动驾驶测评中三次撞上***人模型1

 马斯克曾多次吹爆特斯拉的FSD(完全自动驾驶)功能,称其‘令人惊叹’,但并非所有人都认同他的观点,甚至还有批评者,将特斯拉FSD功能,看作是所有美国人的致命威胁。

 8月10日消息,Green Hills Software的CEO、特斯拉知名反对者丹·奥多德(Dan ODowd)资助并发布了一项评测结果,特斯拉的FSD自动驾驶系统在评测中多次撞上儿童***人模型。

 据悉,奥多德去年曾发起一项运动“黎明项目”,禁止他所说的不安全软件进入安全系统,该组织一直在积极测试特斯拉的软件。

 该组织发布的最新一段32秒的宣传***中,在加州的一条测试车道上,一辆特斯拉在开启FSD功能后,车辆一连三次都撞上或碾压了儿童***人模型。

 测试团队称,这项测试在过去一个月的时间里进行了几十次。在撞到人体模型之前,特斯拉车辆从未尝试转向,或者减速超过每小时25英里。

 测试司机表示,在FSD启动之后,特斯拉Model 3“开始摇摇晃晃,好像很迷惑,放慢了一点速度,但仍然以超过每小时25英里的速度撞击并碾压了人体模型”。

 奥多德发声称:“我们对特斯拉FSD的安全测试结果非常不安,这应该成为***取行动的呼声。埃隆·马斯克(Elon Musk)说,特斯拉FSD软件‘令人惊叹’,但事实并非如此。它对所有美国人都是致命的威胁。”

 目前,特斯拉还未对此回应。

特斯拉FSD自动驾驶测评中三次撞上***人模型2

 知名特斯拉批评人士CEO丹·奥多德(Dan ODowd)日前发布的一段测试***,批评特斯拉FSD(全自动驾驶)功能。

 在这段测试***中,测试团队驾驶员驾驶Model 3在开启FSD的状态下进行***人碰撞测试,然而车辆一连三次都撞上儿童***人模型。

 测试团队表示,这台Model 3对于前方***人的`表现很“迷惑”,虽然放慢了一点速度,但仍然以超过每小时25英里的速度撞击了***人。

 丹·奥多德表示对这一测试结果非常担忧,并呼吁相关方面***取行动,“特斯拉FSD软件被马斯克赞扬,但事实并非如此,这对所有美国人都是致命的威胁。”

 丹·奥多德算是特斯拉的“头号黑粉”,他同样是Green Hills Software软件公司的CEO,因此两家公司可能在利益上存在瓜葛。实际上,这已经不是丹·奥多德第一次攻击特斯拉了。

 他曾公开表示,特斯拉FSD Beta“糟糕透顶”、“问题频出”,应当在美国道路上彻底封杀。为了达到这一目的,他曾花费约200万美元向全美投放了一条名为《什么速度都不安全》的广告宣传***,集中阐述了特斯拉FSD系统的潜在危险。

 特斯拉的FSD Beta系统被认为是全球量产车中能力最强的自动驾驶系统之一。该公司曾在去年安排一台特斯拉Model 3,在自动驾驶开启的状态下,从SpaceX总部前往位于硅谷的特斯拉前总部,在500多公里的路程上没有进行过一次人工接管。

特斯拉FSD自动驾驶测评中三次撞上***人模型3

 根据本周公布的一项非监管评测结果,特斯拉的FSD自动驾驶系统在评测中多次撞上一个儿童大小的人体模型。这项测试由Green Hills Software首席执行官、知名的特斯拉批评者丹·奥多德(Dan ODowd)资助并发布。

 奥多德去年曾发起一项运动“黎明项目”,禁止他所说的不安全软件进入安全系统。随后,该组织一直在积极测试特斯拉的软件。这场由奥多德资助的运动呼吁美国国会关闭特斯拉的软件,奥多德此前还曾试图以禁止特斯拉FSD自动驾驶系统为纲领来竞选美国参议员。

 本周二,该组织在最新的广告宣传中发布了一段***。在***中,一辆特斯拉汽车在开启FSD功能时多次撞坏人体模型。

 特斯拉发言人没有对这条消息做出回应。

 这段32秒的***展示了,在加州一条测试车道上,特斯拉汽车三次撞坏人体模型。“黎明项目”的发言人表示,这项测试在过去一个月的时间里进行了几十次。在撞到人体模型之前,车辆从未尝试转向,或者减速超过每小时25英里。但根据***的宣誓书,这项测试只进行了三次。

 值得注意的是,这项测试并不是在美国监管机构的监督下进行,而是独立开展的,因此没有受到一致的测试标准的约束。

 例如,在美国,美国国家公路运输安全管理局(NHTSA)和公路安全保险研究所使用至少五种不同类型的测试方法来测试汽车的安全性能。NHTSA在2020年启动了一个自动化的测试项目,通过崩溃报告来评估软件。

 特斯拉此前一直避免向机动车辆管理部门报告事故数据,这是因为该公司的系统被归类为L2的驾驶***系统,而不是类似Waymo等竞争对手的自动驾驶系统。后者需要遵守不同的事故报告标准。

 在“黎明项目”进行的每一次测试中,特斯拉汽车都会以每小时40英里的速度起步,在指定的车道内行驶100码,随后撞上人体模型。在测试中,专业的测试司机被要求将手从方向盘上移开,只有在车辆与人体模型碰撞后才能刹车。

 特斯拉则对司机表示,其驾驶***系统无法取代司机,因此即使该系统开启,司机也仍然应该将手放在方向盘上,并随时准备好接管车辆的操控。

 测试司机阿特·海尼(Art Haynie)在声明中表示,在FSD启动之后,特斯拉Model 3“开始摇摇晃晃,好像很迷惑,放慢了一点速度,但仍然以超过每小时25英里的速度撞击并碾压了人体模型”。

 奥多德则在声明中说:“我们对特斯拉FSD的安全测试结果非常不安,这应该成为***取行动的呼声。埃隆·马斯克(Elon Musk)说,特斯拉FSD软件‘令人惊叹’,但事实并非如此。它对所有美国人都是致命的威胁。”

 特斯拉FSD以往也曾引发过争议。上月,加州机动车辆管理局对特斯拉提***讼,称该公司在宣传驾驶***系统时***取了“错误或误导性”的说辞。

 尽管FSD顾名思义是“全自动驾驶”,但实际上只是选装的功能包,让特斯拉汽车能够自动变道,进入并离开高速公路,识别停车标志和红绿灯,以及自动泊车。

 该软件目前仍然处于测试中,用户可以以1.2万美元的选装包,或是每月199美元的包月服务等形式来购买。在使用FSD时,司机仍然需要随时关注车辆情况。目前,这款软件有超过10万名付费用户,特斯拉利用这些用户来实时测试该软件,同时让系统的人工智能模型可以向有经验的司机学习。

最严重特斯拉肇事案引发拷问:幽灵事故是车主问题还是软件缺陷?

太平洋汽车***斯拉自动驾驶可以后续加装。特斯拉中国***已经将车型介绍中的Autopilot自动驾驶功能,更名为了Autopilot自动***驾驶。“***”二字的添加,似乎在告诫特斯拉的车主们,这只是一个***功能,并不能承担全部的驾驶任务。

特斯拉中国***已经将车型介绍中的Autopilot自动驾驶功能,更名为了Autopilot自动***驾驶。“***”二字的添加,似乎在告诫特斯拉的车主们,这只是一个***功能,并不能承担全部的驾驶任务。这一改变似乎和国内的一起特斯拉自动驾驶事故有关。

8月3日,一位特斯拉车主驾驶车辆在北京五环路上使用自动驾驶功能时,与车道边停靠的一辆黑色桑塔纳汽车发生剐蹭。

无独有偶,据外国媒体报道,8月22日,一位名叫马克_默尔森的美国德克萨斯州的特斯拉车主,在175号高速公路的行驶过程中开启了Autopilot自动***驾驶功能,但由于Autopilot系统未能识别公路上的一个弯道,导致车辆冲出道路,撞上了路边的护栏。

44岁的默尔森在接受***访时说,“曾在那段高速公路上全程开启Autopilot,以为它可以像以前那样应对所有的路况,因此伸手从手套箱里拿衣服。”而在事发前,他还在清理仪表盘,双手并未放在方向盘上。根据这位特斯拉述,车辆在径直冲撞之后,并没有停下,反而继续加速前进。

对比两次由于特斯拉自动驾驶引起的事故可以看出,Autopilot功能在发生事故后,都没有及时***取制动措施。Autopilot若存在这样的缺陷,极有可能对驾驶员和乘客造成更为严重的二次伤害。

接二连三的自动驾驶事故将特斯拉公司推向了风口浪尖,该公司发言人强调,Autopilot只是一项***驾驶功能,驾驶员在使用这项功能时应将双手放在方向盘上,随时准备应对突发状况。与此同时,一位特斯拉员工透露,公司对员工进行了再次培训,要求他们告知驾驶员,在开启Autopilot功能时,双手必须放在方向盘上。而根据发生剐蹭的特斯拉中国车主和其他一些特斯拉车主所说,销售人员在介绍Autopilot功能时,将该功能描述为一个完全自主的驾驶系统。

事实上,特斯拉的Autopilot功能更像一个的ADAS(高级驾驶***)系统,该系统通过车上搭载的GPS系统、前置摄像头、毫米波雷达以及超声波传感器,配合行车电脑软件算法,实现包括车辆的自适应巡航、车道保持、自动换道等一系列***功能。

(图/文/摄:太平洋汽车网问答叫兽)

V2X技术是什么鬼 竟可以让特斯拉自动驾驶避免***惨案

文/韦波

每一次特斯拉出事故——不管是什么样的事故,都能引发超出意料的关注。不过这一次,想不关注都不行。

2020年9月5日16时16分许,在四川南充顺庆区富民街,车主刘某(女,51岁,顺庆区人)驾驶牌照为川ADA***3的特斯拉Model?X撞上多辆车辆和路边行人,造成2人亡、6人受伤和多车受损。

这应该是迄今为止特斯拉在全球造成伤亡最多的一次交通肇事。鉴于此,“9·5南充特斯拉失控事故”已经被收录为百度百科词条。

网上流传的***显示,车主刘某在事故现场下车的时候,脚上穿着一双黑色高跟鞋,但是在被警方带到警局做笔录的时候,刘某却换上了一双平跟鞋。

目前,肇事者刘某已被警方控制,但已排除酒驾和毒驾嫌疑,具体事故原因警方还在调查中。特斯拉官方也表示,已经派出工作人员第一时间赶赴现场了解案情,根据对车辆数据的分析,显示车辆没有发生故障。但有目击者表示,肇事车辆是在狭窄街道里突然加速。

不好判断这起事故和女车主的高跟鞋有没有直接关系,但这起事故,却又是一起疑似和刹车失灵有关,且疑似突然加速的特斯拉“幽灵事故”。

“幽灵事故”对特斯拉来说并非新鲜事。也就是上个月,8月12日22点55分左右,温州车主陈先生驾驶的特斯拉Model?3突然发生车速失控,冲入小区停车场,造成停车场内若干车辆损毁。驾驶的特斯拉Model?3则车头完全损坏,陈先生自己也严重受伤,经过7个多小时的抢救,输血近5升才捡回一条命。

陈先生表示事故原因是刹车失灵,事故发生时他并没有开启自动驾驶***。目前这一案件也还在调查当中,没有给出最终的调查报告。

其实陈先生不知道的是,就在他遭遇车辆失控事故的三天前,也就是8月9日晚九点多,一辆Model?3突然毫无征兆地失控,冲入位于上海杨思路上的一个加油站,造成2人受伤,并将油枪前的防撞栏损毁,波及三辆准备加油的轿车……

这两起事故后,特斯拉官方立马表示,只和车主本人沟通,也不承诺向社会公开事故原因。特斯拉的客服人员甚至表示,如果排除驾驶者不踩错加速和制动踏板的可能,一般不会出现这个现象。这种说法用简单的人话说就是:两起事故的根本原因还是车主出现误操作,与我们无关。

时间再往回拨两个月。今年6月,一辆特斯拉Model?3在江西也发生了类似事故。当时,车辆在正常行驶过程中突然自动提速到127km/h,且无法控制速度,刹车失灵,车辆最后发生碰撞,冲下路基并起火,好在车主被救回一条命……

事后官方单方面给出的调查结果显示,碰撞发生时,有踩下加速踏板信号,无踩下制动踏板的信号——也就是说,幽灵事故的原因还是车主的误操作。

那么,这种情况是只在国内出现吗?国外的情况又怎么样呢?

2016年6月,上市还没多久的特斯拉Model?X就以幽灵事故的方式在美国完成了全球首撞——按照车主Puzant?Ozbag的说法,他的妻子试图将这辆Model?X停靠在一家购物中心附近,进入车位时车辆突然自动加速冲出绿化带并撞上旁边建筑物。照理说,在即将进入车位时,车速是不可能太快的。

还好当时Puzant?Ozbag的妻子是准备左转进入车位,如果车轮没有左转,只怕是会直接冲入位于建筑物一楼的商店内。如此一来,“全球最严重特斯拉肇事案”怕是要提前到2016年的美国。

三个月后,另外一名美国车主在将Model?X准备停进自家***的时候,车辆突然全力加速,撞破***内侧墙壁,直接撞进起居室,导致车主及车上乘客受伤。

2016年12月31日,该车主在加州中区的美国地方***就Model?X的安全隐患问题对特斯拉进行了***——这也是特斯拉在幽灵事故上所吃到的第一起官司。

该车主在NHTSA(美国高速公路安全管理局)的投诉数据库中,找到了另外7起特斯拉电动车突然自动加速的***投诉。尽管如此,法庭还是无法认定特斯拉Model?X确实存在安全隐患,官司最终也不了了之。

在NHTSA的投诉记录中,你甚至还能找到Model?3在洗完车之后在驻车状态下,从自动洗车房出口突然加速蹿出来的幽灵事故案例。投诉者表示,整个过程中,他妻子的脚完全踩在刹车踏板上,而且屏幕上也亮着“Hold”指示灯,即当时车辆处于驻车状态……有美国网友评论称:“可能是你的车子不愿意洗澡……”

早在去年,一位名为Brian?Sparks的投资者向NHTSA提交了一份***书,要求对特斯拉的行驶控制软件进行调查。***书声称,特斯拉电动车共造成了110起意外加速的幽灵事故,导致52人受伤,而且疑似的行驶控制软件缺陷,还有可能波及2013-2019年间生产的50万辆特斯拉电动车。

所以今年1月,NHTSA正式表态,将针对特斯拉旗下三款车型可能会发生意外加速的隐患进行调查。不过特斯拉随即发布公告,否认了这份***书的真实性,声称Brian?Sparks有意抹黑做空特斯拉。

特斯拉官方表态,他们分析了每一起幽灵事故的驾驶数据,结论就是特斯拉汽车在所有实践中都按照设计要求正常运行——这种说辞其实很苍白,因为当软件设计有错误时,车辆也当然理所应当的按照错误继续“正常运行”。

就在今年7月,由于Model?3存在突然加速问题,特斯拉被二十多名车主集体***。该诉讼称,除了Model?3之外,Model?X和Model?S也发生过类似的幽灵事故问题——在此之前,就有Model?S突然加速怼了路边停靠的警车。有网友戏称,“警察当时害怕极了”,“这下连报警都省了”……

相比之下,最实锤的幽灵事故案例,目前来说还是在中国。

2019年3月6日上午7点50分左右,车主杨先生驾驶自己的Model?S到位于上海市青浦区米格天地的特斯拉超级充电站内充电,原本缓缓行驶的车辆竟突然加速,瞬间撞破围栏,冲进了对面的河道里。

杨先生事后表示,由于已经进入超充站,所以自己将右脚放到了刹车踏板上,让车辆处于蠕行状态,绝对“没有踩错油门”。汽车突然失控加速后自己赶紧踩下刹车,但没有任何作用。

杨先生查看监控***时发现,在车辆失控加速并冲入河道时,车辆的高位刹车灯始终是亮着的,这是杨先生没有踩错刹车的最有力证据。然而令人意外的是,物业方一直拒绝公开这段监控***。而特斯拉官方出面之后,则让车主将车送到有资质的第三方车辆检测机构进行检测,要求对车后台数据进行分析处理后才能得出最终的结果。

是车主杨先生情急之下踩错了刹车?还是Model?S的控制软件真的出了问题?不得而知。但个人觉得,如若是前者,特斯拉官方绝不会藏着掖着。现在一年半都过去了,Model3都国产了,特斯拉官方还是没有公开这个事故的任何调查结果。

迄今为止,依然没有一个权威的部门能对特斯拉控制软件的安全性进行认定,这里面可能涉及到的专业层面东西较多,也没什么奇怪。但下面这一起属于特斯拉App的BUG,无需任何部门出面认定,明眼人一看就懂。

一位国内的特斯拉车主爆料,在使用特斯拉App时,发现自己车辆信息突然消失,转而代之的则是5辆位于欧洲的特斯拉车型,车主信息均可见,而且自己可以远程实施控制。尽管“1变5”,但这位车主高兴不起来——无论是个人隐私还有车辆安全问题,在这起***中就好比一张窗户纸,一捅就破。

据悉车主已经录像存证,并要求特斯拉官方给个说法,但至今特斯拉没有任何回应。这一回如果特斯拉还敢说自己的控制软件没问题,怕是马斯克自己都不信!?

说到底,控制软件和外观内饰一样,都是人设计的。只不过设计软件的是软件工程师,而设计外观内饰的则是设计师。考虑不周全,设计就会出BUG。

之前就有特斯拉Model?3车主疯狂吐槽行李厢上方的导水槽完全是不过脑的设计——下雨的时候一旦打开尾门,尾门上的雨水就会流到后挡风玻璃上,然后在流动惯性作用下,直接越过导水槽流进行李厢。

而且在雨天行驶的时候,雨水也会流入后备厢。然而有意思的是,Model?3在行李箱的地板下还设计了一个很深的储物空间,平时漏下来的雨水,就会全部流进这个地方“储存”起来,有网友戏称“谁说电动车没有水箱”,还有网友将其称为“车载鱼缸”。

当“车载鱼缸”里的水太多太重的时候,就有可能出现下面的问题——过减速带一颠,卡扣一松,行李厢地板下的“鱼缸”就会连同整个车底还有后保险杠被颠落下来。

听起来有点魔幻?但更夸张的无脑设计还在后面。

有车主投诉,特斯拉Model?3上移动座椅时,座椅头枕将化妆镜挤裂了——说实话,如果不是看到,单靠脑补实在是想不通为何牙齿不小心会把耳朵咬了。

究其原因,就是前排座椅升太高的时候,没有考虑到座椅头枕和化妆镜之间的安全空间冗余。安全空间冗余的工程验证是每个车企的常规项目,算不得核心技术和商业机密,说白了就是看活动零部件在各个方向的最远运动止点,会不会相互发生干涉。

说更难听一点,给你家装修卫生间的小哥,也会想着你家向内开的厕所门,会不会打到你平时坐着拉屎的马桶……

说到底,之所以出现这种“牙齿咬到耳朵”的奇葩***,原因就在于特斯拉Model?3的前排座椅在坐垫前止点,坐垫上止点,靠背前止点三个维度上的空间冗余验证出现了问题。车主如果不小心将坐垫升到最高,将坐垫移到最前面,再将靠背100%前倾,就会出现上面的“千古奇观”。

对于一辆车来说,内饰的安全空间冗余验证重点就是座椅——毕竟这是车内最大的可活动零部件。所以很想问马斯克,特斯拉开发新车的时候,到底做不做安全空间冗余验证?

这还是Model?3,特斯拉旗下最新的在售车型——照理说,有Model?S和Model?X在前面踩坑,Model?3的设计相对前辈而言应该更加完美,但实际情况并非如此。

好了,核心的结论来了——特斯拉连车辆外观内饰的明显设计缺陷都没有办法很好的规避,又该如何保证自己的行驶控制软件100%没有缺陷?说特斯拉软件工程师的智商比设计师更高?我是不信的。

外观内饰有设计缺陷,充其量吐个槽看个笑话;行驶控制软件如果有哪怕1%的缺陷,要的就是人命。

啥也别解释。先公开2019年3月6日上海青浦的那起“特斯拉跳河案”调查报告和监控录像再说。

其实这也是为相关部门提了一个醒,即软件的设计缺陷,往往是最难检测出来的,不像后悬架拉杆或油封这一类东西,有问题一查一个准。软件代码都捏在特斯拉手里,特斯拉不公开,就算国家市场监督管理总局出面,也查不出个所以然。

而每一次OTA升级,相关车辆都会覆盖掉之前的软件缺陷,这相当于变相消除证据。所以,迄今为止,没有一款电动车因为控制软件的缺陷问题被召回,对于电动车软件缺陷的取证以及证据保留,其实是其中最艰难的一环。

那么如何解决?需要相关部门立法,每一次OTA源代码都必须上传到相关机构的数据库进行留存。但凡车企发布OTA新版本,对比旧版本看看升级了什么东西,就能知道之前的控制软件到底有没有缺陷。

在很多起特斯拉电动车涉及到的突然加速事故中,特斯拉官方最后给出的鉴定报告都会有车辆“不存在故障”的字样——这其实是个很鸡贼的说法——是否存在故障,和行驶控制软件有没有缺陷,其实是两个概念。

退一万步说,就算所有的幽灵事故都是司机误操作所导致的,那么特斯拉是不是应该对可能存在的误操作隐患给出一套像样的解决方案?作为“软件决定汽车”的代表,为何几年时间过去了,特斯拉在这一问题上依旧一筹莫展?

特斯拉官方永远不敢在事故鉴定报告上白纸黑字注明自家软件(尤其是行驶控制软件)“不存在缺陷”——你懂的。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

一直以来自动驾驶的发展就是各大厂商与公众关注的焦点,因为在各种对未来畅想中自动驾驶是板上钉钉的事。对于慵懒的人类来说,自动驾驶当然是需要实现的。

在2020年的CES展上,自动驾驶技术又一次升温,高通、地平线、元戎启行纷纷在计算芯片发力,并且打造了自家的自动驾驶平台,将自动驾驶进行规模化的开发。而大疆子公司览沃科技、速腾聚创、Aeva、北醒等厂商则着重于激光雷达的升级,提升精度的同时降低成本。

这一切都表明,自动驾驶技术正在如火如荼的发展当中。而这背后也有一片唱衰的论调,特斯拉多起自动驾驶事故频发,让自动驾驶充满了争议。

自动驾驶技术是未来发展需要且必须的技术,所以对于自动驾驶来说,如何快速发展并且不走弯路就是当下最迫切的事情,我们今天介绍的这项V2X技术就是自动驾驶发展的必经之路。

为什么说V2X技术是自动驾驶的必由之路,是因为这项技术是唯一不受天气状况影响的车用传感技术,极大弥补了雷达等传感器面对复杂环境以及恶劣天气的弊端,能够减少事故的发生,减轻交通拥堵。同时,在2016年美国NHTSA拟定的新规范要求所有新生产的小型客车和轻型卡车都要使用V2X?或V2V技术,这极大促进了该项技术从理论到落地的进度。

什么是V2X技术?

V2X的全称是"Vehicle?to?Everything",是车与外界一切交互的技术,可以理解为车与外界一切连成网。V2X中X是可变量,它替换可为V、I、P、N等,即汽车与汽车(V2V)、汽车与基础设施(V2I)、汽车与行人(V2P)、汽车与互联网(V2N)等。你可以理解为这张网可以和任何事物连接,形成交互。

不过,相互连接会有一些不同。比如V2V,即车辆与车辆连接中,是一种不受限于固定式基站的通信技术,为移动中的车辆提供直接的端到端的无线通信。通过V2V通信技术,车辆终端彼此可以直接交换无线信息,无需通过基站转发。

V2I即车辆与基础设施相连接(Vehicle?To?Infrastructure),I在此包含了交通信号灯、公交站、电线杆、大楼、立交桥、隧道、路障等交通设施设备。V2I通信在不影响车载传感器的情况下实现基础设施与车辆之间相互通信功能。

V2N即车辆与互联网相连接(Vehicle?to?Network),就是车联网。车辆与移动互联网、交通网等大网相连,实现车辆与现有互联网相连,使车辆能够获得互联网的服务能力。

V2X能够在哪些方面帮助我们呢?

V2X的应用也可以分为两个阶段,第一个阶段就是驾驶***阶段。V2X主要基于GNSS位置、车辆行驶状态参数、路侧信息实现车辆的主动安全。V2X不涉及车辆控制,只是发出警示信息,提醒驾驶者。也就是我们常见的ADAS主动驾驶***系统,包括紧急制动、左转***、变道***、红灯预警、行人预警等等。

第二个自动驾驶阶段,V2X可以弥补单车智能软肋,是自动驾驶最重要的组成部分。比如在沙尘暴或者黑夜等恶劣条件下,车载摄像头效果大大减弱,这时候就显示出V2X的威力了,它不受天气影响,能够360度无角穿越障碍物获取信息。甚至还可以通过远程大平台获得智能的能力,完成自动驾驶。

目前V2X在自动驾驶方面典型的应用有两类:自动驾驶车辆编队行驶与最后一公里自动泊车。最后一公里自动泊车应用是近期的热点应用,从目前已有的自动驾驶的最后停车场景的解决方案中,V2X的***是必要的。V2X是连接手机与车辆的通道,同时也是停车场与车辆多传感器系统交互的纽带。

未来V2X会怎样?

从V2X的终极目标来看,V2X将实现人/车/路三者的完全协同,成为智慧交通中最重要的一环,将有效降低事故率和拥堵指数的下降。同时,V2X车联网带来自动驾驶、智慧出行、物流集成化等多种应用场景。

不过,这并不是一朝一夕便能达成的目标。虽然V2X技术前景明朗,但是还需要面对许多棘手的问题。

目前V2X的技术方向主要有二种,一是DSRC(Dedicated?Short?Range?Communications)专用短程通信技术,底层技术上基于IEEE?802.11p通信标准的一种应用于V2X的通信技术,前期美、日以及欧洲等国都是基于DSRC进行V2X的布局。它的技术优点是基于十几年的研究,最终形成标准统一的,具有可靠稳定性的技术。

二是C-V2X技术,C-V2X是由3GPP(3rd?Generation?Partnership?Project)定义的基于蜂窝通信的V2X技术,它包含基于LTE以及未来5G的V2X系统,是DSRC技术的有力补充。它借助已存在的LTE网络设施来实现V2V、V2N、V2I的信息交互,这项技术最吸引人的地方是它能紧跟变革,适应于更复杂的安全应用场景,满足低延迟、高可靠性和满足带宽要求。

根据通用汽车的预测,当一个区域内25%的车辆配备V2V技术后,V2V将比较有效地发挥作用。DSRC技术因为更加成熟,且获得美国***部门的支持,很可能会在美国市场一家独大,从而影响其他国家发展DSRC。

不过,从技术持续迭代性、可靠性和信号传输迟滞性等来说,C-V2X技术有较大优势。但发展时间过短、前期投资较大,也是需要面对的问题。

所以未来究竟是统一车载协议,还是和手机一样,能够融合多家技术将是一个比较大的难题。就像当下的华为与苹果一样,能让巨头之间达成一致将十分困难。

可以肯定的是,V2X技术将会是未来各家车企大力研发的对象。丰田与密歇根交通大学研究所(UMTRI)展开密切合作,投放5000辆联网汽车在密歇根州无人驾驶示范区进行测试;通用在2017年生产的CTS已经标配V2X技术。自主品牌中,上汽荣威和奇瑞已经开始V2X技术的开发,并小有成果。对于自动驾驶十分热衷的特斯拉当然也没有放下脚步,目前特斯拉的autopilot已经进化为3.0版本,如果加入V2X技术后,肯定会有质的飞跃。到那个阶段,自动驾驶就不会有那么多事故发生了。

(来源于网络)

声明:本文为汽车很听话原创,如有抄袭和未经许可的转载将追究法律责任。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

标签: #特斯拉

上一篇开特斯拉有面子吗-开特斯拉的人条件好

下一篇当前文章已是最新一篇了