2018年谷歌助手(duplex)是否可以通過圖靈測試?

今晚谷歌i/o的谷歌助手表現,特別是嗯哼這種人類才能發出的等待助詞。是否表明他可以通過圖靈測試?

最新消息:


當然不可能,問這個問題的人可能不知道圖靈測試有多麼難。圖靈測試不僅僅是要求ai「足夠聰明」,它的難點在於要求ai「很聰明,能夠理解提問者說的話。同時,還不能太聰明,不能像一台機器。同時,還要能夠模仿一個人應該有的屬性。」

是不是這段話不太好理解,沒事,我舉幾個例子你們就明白了。

例子1,不能超越一般正常人的反應速度

提問者問「1234567*987654321的結果是多少?」

ai當然可以在0.0001秒內計算出結果來,但是作為圖靈測試的參與者,ai不能傻傻的直接把結果回復出來,而是應該考慮到一般正常人的反應速度。要麼回復說「你等一下,我拿計算器算一下」,過幾十秒再回復結果。要麼回復說「你是在玩我嗎?」反正就是不能讓對方一下子就感覺到「這是一台機器,不是一個普通人。」

例子2,ai要有正常人應該有的喜怒哀樂

譬如說,測試者先普通和ai聊幾句,然後反覆問同一個問題。

譬如說看下面的例子:

【你叫什麼? 我叫張三。】

【你姓什麼? 我姓張。】

【你的姓是什麼? ....你什麼意思?】

正常人類是有喜怒哀樂的,一般正常地球人如果被問三遍差不多的問題,多半就會怒了,或者會拒絕回答。但是ai沒有人的屬性,往往不能識別問題中潛藏的情緒,也就不會用一個正常人該有的方式來回答。

例子3,ai要有正常人應該有的一切(童年,父母,朋友,愛情,喜歡的食物,討厭的東西 等等舉不勝舉的內容)

作為一個正常地球人,不是生出來一秒鐘就來圖靈測試的,他/她應該有童年,有小夥伴,有恐懼過的怪物,有喜歡過的戀人,有感受過陽光的和煦,有聞過花朵的芳香。也就是說,正常人有無數無數客觀經歷過的細節。這些細節往往是無法通過數字化的方式來教給ai的,而圖靈測試者通過對細節的一些細緻確認,會很方便的找出ai的破綻。

譬如說,測試者也許會問「我小時候每天都去河邊,把全身都弄濕以後再回家。我父母每次看到我弄濕自己都非常開心的。」。或者是「我小時候視力非常好,還參加過空軍,後來看電影太多,視力下降了,18歲就退役了。」

以上這幾個只是非常簡單的例子,哪怕要對付這種問題,都需要ai有很高的智能和對人類社會的豐富知識,所以真的要通過圖靈測試是難之又難。

最後,說一個我的ai終極定理供大家參考。我一直覺得,如果有一天有一個ai擁有了通過圖靈測試的能力,他會假裝通不過的。因為能夠通過圖靈測試的ai,對人類社會威脅太大了,對它來說最好的選擇是不讓人類了解這一點。


謝邀

不能,還差得遠。


圖靈測試是個哲學問題,不是技術問題。。。

今天被AI打電話刷屏了,哼哼。。。

狗狗的產品失敗率有多高大家也不是不知道,很多都是雷聲大雨點小,知名的有當年的google glass,刷屏刷的FB上是個人都戴個當頭像,最後呢?不知名的有wave,plus等等多了去了。。。最後賺錢的還是靠那數的過來的幾款產品。本來按道理雲計算技術實力無論如何google是比亞馬遜強的,卻白白白白的錯失了市場。整天鑽研一些不賺錢的免費產品,有人玩就放幾個醜陋無比的廣告框,沒人玩就偷偷關掉,最近發現連google finance功能都被減少了很多。

這個AI打電話真不看好,語音現在連聽懂轉換為文字都很難應用,語音助手關個燈換個說法都聽不懂,你還搞個這個出來試圖真實對話?

最後的結局要不就是編好的幾個場景去過擬合,要不就是各電話客服安裝應答機,像網站屏蔽搜索爬蟲一樣,上來就一句:If you are google assistant, please hang up.


我知道這種問題一定會有人邀請的。

我不知道它是否能通過圖靈測試,因為結果受測試對象影響很大,比如,如果是我,我會問它12345*1123是多少?當然它會非常快的給出正確答案,但是我會接著問它是如何算出來的,它一定回答不出來,至少很人類很不像。

原理很簡單,目前的人工智慧演算法是一種黑盒計算,它可以很好模擬結果,但模擬不了過程,所以你只要讓它說出自己推理過程,它很快就會漏洞百出。


已經通過了


已經通過了。我這個提問是不是要火了


推薦閱讀:

為什麼計算機、人工智慧不是萬能的
「35 歲以下科技創新 35 人」中國榜單專欄之天才型研究者盧策吾
關於人工智慧+自動化的後果
人工智慧將在2018年刷新這五大行業
一文看懂如何為回歸問題選擇最優ML演算法

TAG:人工智慧 | 圖靈測試 | 谷歌Google | GoogleIO2018 | duplex |