人工智慧已逐漸融入我們的生活,它的優缺點也成為各界熱烈討論的話題,尤其是如何能在避免侵害智慧財產權的情況下成為創新創業的助力。
☆°.﹒☆°.﹒ ☆°.﹒ ☆°.﹒ ☆°.﹒ ☆°.﹒☆°.﹒ ☆°.
Artificial intelligence and civil liability—do we need a
new regime?
Journal ∥ Baris Soyer, Andrew Tettenborn
International Journal of Law and Information Technology,eaad001, February 2023
目前,電腦已能完成許多專業工作,甚至做得比人類更好;例如:電腦可以在西洋棋和圍棋上打敗人類、電腦可以進行文學及(古典)音樂創作、電腦更能協助教師們製作教學教材,以及擬定考試題目。在近幾年的發展中,計算機系統在趨勢觀察與預測的運作模式也幾乎與人類專家的思維相近。這樣的快速演變,很大一部分是因為AI技術的發展;因為計算機導入了人工智慧並因此提升了複雜的巨量資料處理能力 (包含了系統演算的準確度、速度,以及規模),這當中最常被採用的技術涵蓋了機器學習、深度學習、自然語言處理、圖像及語音識別、認知科學,還有資料探勘。
AI出現後所帶來的問題林林種種,發生狀況時,也無法以傳統法律來套用及解決問題,其中最被廣泛討論的就是「侵權法」,例如:英國對於 "人工智慧侵權造成的影響"與"人工智慧需要承擔的民法責任範圍" 提出了不少應對措施;單以2022年,英國政府就提交了「人工智慧監管規範政策報告」,以及「AI涉及之智慧財產政策規劃報告」,另外,英國法庭也就「機器能否能擁有專利權」一案做出了裁決 (結論當然是不能啦)。
受法律的約束,不代表會遵守道德的規範!即便在嚴格的法規下,通常也只能限制部分重視責任和後果的人"不去產生負面行為",但卻無法阻止人們"獲取負面的資訊",也無法控制所有人的行為都能"符合人性";意即,不論在何種情況下,即便是人類也會出現道德上的問題,更何況是AI。
簡單來說,若是因為使用機器造成了損害,那麼問題就僅僅是在機器上的缺陷,或者操控面上的人為疏失;但若提升到AI的層面,整個過失的判定就會變得十分困難:因為AI的自主運作特性,會在脫離一般規則的情況下,完全不用特別考慮責任問題,若此時又沒有人類介入加以矯正,便會產生嚴重的偏差結果,並且受害人將會較不容易獲得損害賠償。
目前,英國除了針對自動汽車駕駛提出了一個責任制度外,並無提出其他有關AI技術應用的適用規則。相比之下,歐盟的發展就比較領先:2020年由歐盟議會投票通過了一項針對AI的民事責任制度、2021年4月由歐盟委員會提出的人工智慧生產及行銷相關法規等。另外,歐盟更召集倫理學家、人類學家、社會學家、心理學家等專家學者組成委員會,共同進行各種高風險評估與責任判定的工作。
基於上述概念,研究中提出了一些責任制度上的調整建議,包含:
(1) 針對AI與人類的過失,其究責的過程和結果應該相同、
(2) 新法與舊法間需要存在合理的競合解決方案、
(3) 針對特別容易遭受AI風險的人事物設計補償機制、
(4) 不區別對待AI事件,統一注重權益保障、
(5) 不賦予例外或部分責任承擔的做法、
(6) 推動有助改變負面行為的技術監管制度、
(7) 避免開發或針對高風險項目進行測試等等。
研究內容中也提出了四個應該被索賠的事件類型,包含:
(1) 人身傷害與死亡、
(2) 自然人的尊嚴及權利損害、
(3) 財產損失、
(4) 經濟損失。
有三個AI的技術問題在研究中特別被提出討論:
第一個是人工智慧與過失,
如果AI的問題發生前,已經存在疏失或錯誤,關於這種情景,明顯是應該由雇主或者提供服務者,或者是操控的人來負責,這是比較沒有問題的。有爭議的是,AI透過自主運行產生了錯誤的決策,那麼責任應該歸咎於誰,是開發AI系統的員工?還是提供技術服務來營利的雇主?
歐洲議會就曾經想要賦予AI人格權,但事實上,社會所面臨到的還有補償,以及倫理道德等問題,所以就算直接歸咎給AI,但衍生的賠償責任並不是單純的停掉機器、刪除程式就能解決!為此,本研究提出了一個值得被討論的觀點:立法機關應該先判斷同樣的事故,若是人為,是否會被究責,若會,就應該同等要求對AI啟動究責機制;相反,則應該要被判定是使用者過度依賴機器人所造成的負面結果。
第二個問題是第一個問題的衍生,如果立法機關判定AI應該比照人類來究責,那麼賠償應該找誰追討?
畢竟機器人沒有保險、沒有資產,也不能作為訂定合約的甲乙方。我認為作者在研究中提出「以使用AI的實質獲益者來作為追討的對象」是較為合理的,因此,盤點使用AI的獲利者,就是必要之事。以研究報告的角度來看,AI的獲利者可以分為兩個類別,一是將AI用於營業的用戶 (例如:控制現場安全、交易決策、交通監控),二是開發、供應或控制這些AI設施的企業 (例如:軟體開發者、技術供應商、系統維運商),而這兩類對象則因該視事故發生的狀況,單獨或一起承擔所有責任。
第三個是有瑕疵的AI (設計不良,或者無法正確執行預期功能的AI),
英國1987年消費者保障法規定:企業若提供不良產品,並因此對消費者造成損害,則不論是否為疏失,皆須擔負法律責任。這樣的觀念,應該同時適用在AI!
不過,人工智慧技術與典型的物理技術不同,所以「瑕疵」的定義就不是那麼容易。再者,因為AI的自主演算特性,所以在原始開發者並不一定擁有最終決定權的情況下,就造成了疏失時間點上的判定困難。
針對這一點,作者提出了一個簡單的例子: 如果在發生一些意外事件後,未能適當考慮並解決這些新的危險,使其後續又發生了本來不會發生的事故,那麼就會產生一個很明顯的"責任時間點"。
人工智慧的發展確實能為人類帶來許多生活上的幫助,也能替人類帶來更多的未來展望,但這項技術並非萬能、也會出錯,至少到目前為止,我們無法忽視「使用AI技術的人更可能因為它的錯誤而蒙受損失!」這項議題。因此,對於AI科技的應用發展,監管機構除了需要適度地進行干預,更需要積極地制定相關規範與標準 (例如:侵權保護制度與賠償機制),讓人類能踏踏實實地因為AI技術的發展而獲得更安全、更美好的生活。
誰營運、誰獲利,出了事情就找他負責,這是基本概念的一種。但是如果找不到可追究的人怎麼辦?這雖然不是這篇研究要探討的主要內容,卻可以確定的是,專業知識的獲取,以及正向思維的長期訓練,或許可以做為人類自我防護的第一個關卡。
留言
張貼留言