人工智慧的發展可能會產生哪些法律問題?


我們如何讓AI在不影響創新的情況下對其決策負責?

從定義「解釋」開始。當我們談論一個決策的解釋時,我們通常是指這個特定結果的理由或理由,而不是一般的決策過程的描述。

區別很重要。有可能解釋AI系統如何做出決定,同樣可以解釋重力如何工作或如何烘烤蛋糕。這是通過布置系統遵循的規則來完成的,而不涉及任何特定的掉落物體或蛋糕。

這就是企業家們為了保護他們的商業優勢而保密他們的AI系統的秘密的恐懼。

但在許多情況下,這種透明度並非必要。例如,解釋工業事故中物體墜落的原因通常不需要對重力進行解釋。相反,解釋通常需要回答這樣的問題:決定中的主要因素是什麼?改變某個因素是否改變了這個決定?為什麼兩個類似的案例會導致不同的決定?

基本上,當利益超過成本時。有三種情況表徵了社會認為決策者在道義,社會或法律上有義務提供解釋的情況。決策必須對決策者以外的人產生影響。決定是否是錯誤的必須有價值。並且必須有一些理由相信在決策過程中發生了錯誤(或將發生錯誤)。在要求解釋之前,必須有充分的理由認為決定不合適。但是也可以有其他的理由來解釋,比如試圖增加對消費者的信任。

對AI系統來說,合法可行的解釋是可能的。這是因為決定的解釋可以與其內部工作的描述分開進行。更重要的是,解釋系統應該與AI系統截然不同。

只有這樣,如果AI系統觸犯法律,我們才能去深究為什麼,也才能做出判斷和判決。

了解更多矽谷前沿深度訊息請看 硅發布 微信公眾號。


謝邀。

阿爾法圍棋之父哈薩比斯說,人工智慧面臨」一大堆有趣而又棘手的問題……我們必須回答這樣的問題,如何控制他們,應該賦予他們怎樣的價值觀,如何控制,使用他們」

其實早在上世紀五十年代,阿西莫夫先生就在他的《我,機器人》中就提出了機器人三原則。

這些是哲學問題,倫理問題,也必然反應到法律當中去,成為法律問題。

一,頂層的法律制度設計,相當於針對人工智慧的《憲法》,整體規範人工智慧技術,對機器人提出禁止性法律,以保證將來人類不被機器控制和奴役甚至作為一個物種被整體清除。

可以叫做《人工智慧法》。

二,具體到人工智慧應用的各個領域,肯定將會細分出人工智慧在物權,生命權,民事責任,刑事責任等等各方面的法律。

比方說,《禁止人機合一法》,禁止將人工智慧技術直接作用到人類身上,製造出半人半機器的怪物。

比方說,《人工智慧稅法》,以規範人工智慧作為「智能」的納稅義務及其權利。

比方說,《人工智慧權益法》,或像沙特那樣賦予人工智慧一定的有限的公民權,包括國籍。

比方說,《人工智慧意識形態防治法》,禁止開發,製造人工智慧參與人類宗教,哲學,意識形態等方面的討論,以防止人工智慧主導和左右人類的思想。

比方說,《禁止人工智慧集會結社遊行示威法》,防止機器人組織化。

總之,人工智慧將來涉及到的任何領域,都會牽涉到法律問題,如自動駕駛,這或者需要修改相關法律,或者需要制訂專門法以規範。

一個全新的世界。


推薦閱讀:

人工智慧被資本和媒體過分炒作不利於解決缺芯困局
智能陪伴,有態度有內容的小跟班-蘿小汪智能陪伴機器人體驗
Jupyter Notebook的三大短板,都被它補齊了
AI「橫行」的時代,牙刷也要逆風翻盤!
謠言比真相傳得更快更遠,看AI如何攔住它

TAG:人工智慧 | 社會 | 科技 | 科學 |