1947年威利斯吉普 (案例并不值得注意的具体模式)。图像 ︰ 特拉维斯/Flickr
第一车祸造成的自动化的汽车,就法院而言,没有发生在 2 月当谷歌的车撞到加州巴士在低速时。1950 年,密苏里州法院裁定未成年的女孩,被后面的一辆吉普车轮崩溃时是不是负责崩溃的”机器人“。
故事是这样 ︰ 在 1947 年,格兰特弗莱 (为 $1,443.37,如果你关心) 买了一辆新吉普车和让他的儿子约翰驾驶它大约一天。弗莱告诉他的儿子”,让没有人开那辆车在任何情况下。约翰,他当时是 17,立即捡起一个叫凯瑟琳的女孩 — — 谁有从来没有开过车 — — 从她的工作在电影院里,打了个烧烤摊,和当然,让她开。日期不做得很好。
“[约翰] 告诉她,他会教她到驱动器,并在他的请求,她得到了在车轮下,他坐在她旁边的前排座位。他教她开始车、 如何使用离合器、 如何换挡和刹车在哪儿,”从 1950年读取的法庭记录。法院认为,凯瑟琳跟着约翰的方向没有问题。在半路高速右转进入一个点,约翰辙,告诉她向左转。凯瑟琳 — — 法院说,”机器人”— — 急打方向盘离开,吉普车翻进沟里。
“据约翰有关,她控制住了汽车一样好像她过一个机器人或自动机器”
案件可能应该已经失去了被拒绝的 20 世纪 50 年代 black-and-white-sitcom-script-land,但格兰特 Frye 显然有点混蛋。他不只起诉凯瑟琳 200 美元价值的损害她没有到汽车,但是上诉决定后较低的密苏里州立法庭裁定约翰,不是凯瑟琳,是负责任。
弗莱的可诉性就是为什么我们有荒谬的 1950 Frye 诉巴斯金决定斯普林菲尔德上诉法院。
“据约翰有关,她控制住了汽车一样好像她过一个机器人或自动机器,”法院写道。”当约翰说 ‘转’ 时,她转身,机械,她是约翰把车开的手段。
这种情况是怪异的美国历史,古玩,这是令人沮丧的性别角色在看的时间。但也不完全是毫无回看情况,现在,谷歌无人驾驶汽车一直被认为在故障坠毁。弗莱案件最近重新浮出水面的 Ryan 卡洛,他在美国的法律,认为法官有严重缺陷的什么”机器人”是视图的纸机器人华盛顿大学的法学教授。
Frye 案例是有教育意义,他说,因为法官定期看机器人作为严格按照订单的实体。从历史上看,法官已定义机器人作为编程并不能自行作出决定的东西。在弗莱,定义了扩展到一个女孩。
“的想法是一个机器人是什么的个人或实体时,完全由另一种控制。这种人或实体是不能够故障或知识,离开的人后面的机器 — — 程序员 — — 在故障,”卡洛写道。”机器人,而没有人看到、 听到,或作恶。
“操作是车的在约翰的控制下仿佛只是车的他的他的长手臂会控制它从右侧”
该定义可能有合情合理的趋势,在 1950 年,但它现在肯定不会。即使是最基本的机器人执行任务是意料之外的它们的创造者;谷歌当然没打算有其车撞向一辆公共汽车,但汽车仍决定避免一套沙袋,导致系统崩溃。这意味着谷歌是错吗?或者是它的人类的旅客,坐在司机座位传统上是什么?那得由法院和国会议员最终决定。
这一意义上说,在弗莱的决定是有教育意义,虽然在技术上没有先例。法院裁定,”操作的车是在约翰的控制下仿佛只是他的他的长手臂会控制它从右侧。
那是否意味着如果一个驱动程序可以控制从一个自动化系统,他或她必须为了在崩溃时的故障不是?这是法院有靠前,卡洛说,和它可能是为什么谷歌专注于无人驾驶汽车方向盘不完全的原因。
“只要一个人在某个地方的循环中,是否意味着他们可以承担责任?”卡洛说。”在很多情况下,我看着来了 — — 如果有一个人干预的可能性,他们往往被看作是一个在故障。”