https://www.drive.com.au/news/te ... officers-in-the-us/
随着道路安全当局继续调查这项有争议的技术,美国发布了一辆特斯拉撞上警车的令人不寒而栗的镜头——两名警察站在旁边。
一辆特斯拉电动汽车在自动驾驶仪上撞上一辆停着的警车——两名警察站在一辆巡逻车旁边——的可怕镜头已在美国发布。
虽然事件发生在 2020 年 8 月,但北卡罗来纳州警察局本周才公布了这段视频片段。
它显示了一辆特斯拉 Model S 轿车在高速行驶时撞上了一辆停着的巡逻车,两名警官在车辆从他们身边擦过时险些逃生。
特斯拉司机承认,当他的汽车处于自动驾驶模式时,他一直在用手机看电影。
该事件凸显了许多司机对特斯拉自称的“自动驾驶”技术的过度依赖。
迄今为止,汽车行业的其他公司都将驾驶辅助系统作为辅助设备推向市场,这些设备并非旨在取代驾驶员的责任。
然而,特斯拉被指控过度销售该技术并淡化其局限性。
美国道路安全部门正在调查多起涉及特斯拉汽车及其自动驾驶技术的致命车祸。
作为其广泛调查的一部分,美国国家公路交通安全管理局 (NHTSA) 也要求对特斯拉的自动驾驶软件进行取证检查。
特斯拉表示,如果司机突破其自动驾驶辅助设备的极限,这不应该受到责备。
但德国当局已经对特斯拉提出了关于该技术的误导性声明的责难。该技术在包括澳大利亚在内的一些司法管辖区被禁止。
据美媒报道,撞上停在警车上的特斯拉司机是一名名叫德万德·戈利的北卡罗来纳州医生(上图)。
据报道,他被指控不为紧急车辆移动和分心驾驶。
视频片段显示,特斯拉司机在撞车后被带离现场。
评论
自带Terminator系统
评论
"事件发生在 2020 年 8 月"
FSD BETA 早已解决这一类问题。
评论
关键不是技术问题,是民众的信心问题。
如果你的小孩子跑到了路上,然后远处一个双手脱把明显自动驾驶的Tesla告诉开过来,完全没有后怕?
心中默念:bug已经fix了,code是至少两个组员review过的。
评论
解决个毛啊,就目前的技术来看,还的有5-10年自动驾驶才能成熟。
现在自动驾驶,就是玩玩可以,千万别当真,否则就是自动驾死,
评论
如果没有解决,为什么 2020 年 8 月以后就再无类似事件呢?
现在特斯拉有 200+ 万辆车在马路上跑。
评论
据说谷歌一开始投资Uber就是想利用Google地图收集Uber司机的行为模式,把收集到的数据用来开发AI驾驶技术。
还是特斯拉比较猛,一边人工测试一边修复bug。据说现在还把雷达砍了,全靠摄像头,自信心满满的
评论
楼主认得视频里面撞向警察的是什么车吗?? 我给个提示,不是韩国车,是美国车,第一个字母是 D
评论
200万量都是司机座后排,闭眼跑?
评论
2020 年 8 月这位司机坐后排,闭眼跑?
评论
charger吧
评论
就是嘛,还说“一辆特斯拉撞上警车的令人不寒而栗的镜头”
我差点以为是 EIon Mask 的 Desla Model C
评论
同意。
燃油车着火概率远远大于特斯拉,但民众并不担心,为啥?因为媒体宣传和教育。
每天 3700 人死于交通事故,但民众并不担心,为啥?因为媒体宣传和教育。
跑上马路的小孩,遇到分心的司机时,你希望这个司机开着燃油车,还是具备自动驾驶功能的特斯拉?
人类驾驶员极容易分心。每天 3700 人死于交通事故,主要就是因为这个原因。
我们必须尝试解决这个问题!!
评论
1. 2020 年 8 月以后就再无类似事件
2. 2020 年 8 月以后有类似事件,但没有报道类似事件
3. 2020 年 8 月以后有报道类似事件,但是层主没看到
以上三点是独立的都有可能发生的事件,但层主都主观归纳为第3点
评论
目前自动驾驶还是不敢完全依赖,一定要盯着。希望可能做的更好
评论
所有媒体都盯着特斯拉相关事故。
一旦发生,各种媒体几乎都会报道(甚至一年半后还被提出来再次报道)。
所以,如果发生特斯拉相关事故,一定会被广泛报道,我们都会听到看到。
可笑的是,每天 3700 人死于交通事故,各媒体和政府却集体选择无视。
评论
不是特斯拉,而是自动驾驶技术。
这个已经不只是技术问题,而是伦理问题。
如果酒驾撞了人,致其死亡,追责到个人。杀人偿命。
如果自动驾驶出了车祸,怎么判断责任?司机负责,车厂负责,马斯克要负责坐牢吗?还是开发有bug模块的程序员道歉下跪坐牢?如果是程序员只是用了网上某个社区开源包呢?如果系统是出厂后被人动了手脚呢。很多问题要完善和探讨。
评论
>>如果自动驾驶出了车祸,怎么判断责任?
谁违法违规,谁担责。
如果因为软件出现 BUG,导致交通事故,当然由特斯拉承担责任。(目前特斯拉的自动驾驶是 LEVEL 2,也就是辅助驾驶)
但不要忘记,目前全世界每天因为交通事故死亡 3700 人。这些事故与特斯拉的自动驾驶(几乎全部)没有任何关系。
而特斯拉推行自动驾驶的主要目的之一,就是大幅度减小这个数字。
评论
是啊,发现了才解决问题
特斯拉的一贯风格
最近发现的是STOP sign不能停而是rolling stop。。。。
再上一个Bug是把月亮看成了黄灯。。。。。。
再再上一个是把车撞到了水泥分道栏,因为太阳斜照在上面看着像中心分道线。。。。。
再再再上一个。。。。。。。。数不过来
反正现在确定的有十二个FSD引发的事故,正在上庭。没有举报的错误有多少。。。。。不知道
PS:按2018年的预言,两年后FSD就大功告成,现在应该可以开无人驾驶出租车,特斯拉攒大钱的
评论
google把非洲原住民识别成成大猩猩,大家最多一笑了之。tesla算法把月亮当成黄灯,说不定就要弄死人。
然后追责,tesla程序员说用的是XX在XX会议上publish的一个算法,然后用了ImageNet这种公开数据库训练的。然后数据处理用的openCV这种自由社区项目。瞧,数据、算法、处理我都不是始作俑者,我最多就是工程化,所以不负责或者只付有限责任。
评论
可笑的是
世上最著名的车厂看的是平均数据,而不是最高的标准。。。例如沃沃承诺2020之后生产的汽车里面不会有因事故而死亡的驾驶员。。。
评论
酒吧里的酒存在质量问题,仍然是酒吧承担责任。
同理,如果特斯拉的汽车出问题,不管源头在哪里,当然是特斯拉承担责任。
特斯拉推出 LEVEL 3+ 自动驾驶后,如果因为软硬件原因造成交通事故,当然是特斯拉承担责任。
这和飞机相同:如果飞机本身有问题,则飞机制造厂商担责。(一般来说,不会由飞行员担责。除非飞行员犯了明显错误)
澳洲中文论坛热点
- 悉尼部份城铁将封闭一年,华人区受影响!只能乘巴士(组图)
- 据《逐日电讯报》报导,从明年年中开始,因为从Bankstown和Sydenham的城铁将因Metro South West革新名目而
- 联邦政客们具有多少房产?
- 据本月早些时分报导,绿党副首领、参议员Mehreen Faruqi已获准在Port Macquarie联系其房产并建造三栋投资联