
盡管人工智能已經以某種形式存在了幾十年,但由于計算能力的提高、算法的改進和大量數據的可訪問性,其應用范圍在近年不斷擴大。人工智能(AI)的不斷發展為人類帶來了非常多的便利,同時由于技術的復雜、算法的程序性及技術和數據的壟斷性等因素,也帶來了許多法律問題。人工智能技術近年在美國蓬勃發展,該系列文章將介紹美國律師在人工智能領域遇到的主要法律問題,以供參考。
隨著人工智能在公司的各種產品和系統中普遍使用,人工智能造成傷害和財產損失的可能性不斷變大。人工智能自主行動的能力引發了新的法律問題。產品中的人工智能造成的損害過錯認定成為較大問題。目前,沒有法律規定人工智能造成的損害問題,各州的法院已開始適用傳統法律理論在涉及人工智能產品(如自動駕駛車輛和工作場所機器人)損害的實踐,探索新的解決方案。
1
產品責任基本原則
產品責任法規定產品造成他人傷害中的過錯認定問題。它通常基于各州的普通法和成文法,包括以下理論:
(一)過失行為(Negligence)。過失損害賠償訴訟要求被告當事人(個人或公司)在正常情況下合理的注意義務,原告應證明被告的產品因疏忽大意有設計或制造缺陷,或者在產品標簽上未能提供充分的警告或說明告知消費者產品的安全使用。
(二)違反保證(Breach of warranty)。保證訴訟基于原告和被告(產品銷售商)之間的合同關系,通常根據《統一商法典》(UCC)第2條的州法律版本。原告的產品保證訴訟應證明被告違反了:1.明示的保證;2.產品適銷性的默示保證;3.產品針對特定用途的默示保證。
(三)嚴格責任(Strict liability)。盡管嚴格責任因司法管轄區而異,但大多數州都采用了《侵權法(第二次)重述》第402A條的基本概念。根據第402A條,銷售處于“不合理危險”的缺陷狀態產品的被告,即使被告在產品的準備和銷售中盡了一切可能的謹慎義務,且消費者沒有與被告簽訂任何合同協議,但被告依然要承擔人身傷害或財產損失責任。盡管部分法院和立法者認為用戶或第三方可預測的改造產品,產品對其造成損害時,制造商依然要承擔責任,但通常情況下,402A條的適用要求產品在到達消費者時沒有因第三方或環境的改變而使產品發生有實質性的變化。盡管《侵權法(第三次)重述》修改了這個標準,但只有少數幾個州采用。
2
關于AI的產品責任案例
(一)GPS導航案件
近年來的一個典型AI產品有關侵權案例是關于GPS導航案例。在Cruz v. Raymond Talmadge d/b/a Calvary Coach, 2015 WL 13776213 (Mass. Suffolk Cty. Super. Ct. 2015).案例中,被告Raymond Talmade運營了一個旅游大巴運輸公司及GPS制作商。原告在2013年2月2日登上了該大巴,大巴行駛至Soldiers Field路時,由于路上有個較低的天橋,該路限高10英尺,但大巴高12英尺,仍然在路上走。雖然路上有警示,但司機是根據他的GPS走的,GPS并沒有給出任何警示。最后,大巴撞上了天橋,原告Cruz及多人頭部、頸部、背部嚴重受傷,Cruz下半身癱瘓。
原告基于傳統的侵權理論發起訴訟,對于該半自動化的設備GPS來說,原告的理由有以下兩個:1.該設備是由特定公司開發的設計組件,從設備離開公司控制時起基本上沒有變化;2.該公司未能充分警告其產品的可預見危險。該公司有足夠的大數據及交通事故的數據,導航至限高的路段造成原告的傷害是可預見的,但在本案中未能警示該嚴格限高的路段。該案件雖然在地方法院提起,又打到聯邦法院,但最終和解,保險公司賠付了原告500萬美元,其中被告賠付450萬美元,受傷比較重的Cruz得到了350萬美元的賠償。
(二)自動駕駛傷害案件
上述GPS導航案件還是半自動的,本案的自動駕駛案件更加自動化,體現了AI技術發展后產品責任的認定隨著技術發展而調整。在Nilsson v. Gen. Motors, LLC, Mar. 30, 2018 (No. 18-471) (N.D. Cal.) 案件中,一名摩托車手稱被告的自動駕駛汽車駛入其車道時導致其受傷,但事故反生時,被告未進行人工操作。
在訴狀中,原告僅依據一般過失理論(而不是有缺陷的設計或警告),并聲稱自動駕駛制造商違反了其注意義務,因為車輛本身(而不是備用駕駛員)駕駛以疏忽方式導致原告受傷。制造廠商在答辯中也承認自動駕駛汽車也應用合理的謹慎義務駕駛。盡管該案在訴訟前期和解了,但它提出了幾個新問題。例如,如果過錯不能直接追溯到人類行為者,法律必須確定:1.是否將人工智能產品本身視為獨立的參與者。如果是,則考慮管理人工智能的適用注意義務(例如,“理性自然人reasonable person”標準與新的“合理機器reasonable machine”標準)。2.當人工智能產品可自主運行時,如何界定可預見性。人工智能的使用不僅引發了關于人工智能的可預見性問題,而且還引發了人類最終是否會被要求遵守不同標準的問題,尤其是在人工智能可以執行任務的情況下。
雖然人工智能產品的產品責任案件和侵權案件目前才剛剛浮現,但隨著技術的發展,未來可能會更頻繁,也可能會因此催生新的認定標準。筆者認為未來的AI產品責任將涉及到諸多法律標準的認定問題,包括但不限于:傳統侵權理論中制造商和AI產品操作人的責任認定標準,傳統侵權理論中原告是否存在過錯?制造商的產品責任認定標準,若制造商已盡謹慎義務和行業的準則,AI認定為獨立自主的參與者,則AI極小概率的“過失”或“瑕疵”造成的損害后果由誰承擔?若AI和人類都無過錯,則是否適用公平原則或其他標準?這些都是未來司法實踐中需要探索的。
以上是本文對人工智能(AI)產品責任相關法律問題的簡要介紹,接下來的幾期文章將會在數據保護和隱私、知識產權、破產、勞動用工和退休計劃管理等方面介紹美國運用人工智能的具體法律問題和相關案例分析。敬請關注!
(作者:呂睿鑫)