AI真沒有外界/invest們吹噓的那麼厲害,其實IEEE月刊也有過類似文章了(標題:why AI so dumb?),傳統電腦類的AI能做的加法計算所以仍然脱離不了機械範疇——即只能按照事先設定的條件和要求運行,你要他學習然後分類嗎?可以的,但你要他對完全未知的東西嘗試分類嗎?簡化點説,人類認識了蘋果,認識了橙,認識了一堆水果,然後你給他一個未知、完全新品種的新水果,他大概有一定會認知到是水果、或者保守點説是一種果實,然後AI很大機會給你一個風馬牛不相及的答案——這就是你會發現基於AI在特定或極端或小眾情況下會給你莫名其妙的推介——因為未有前人為此分類啊。AI系統對未知的發掘只是過程,現在AI的輸入(包括資料輸入、對一部分資料進行labeling)基本上頗為依靠人力的————資料可能來自用户生成,而分類則也是請人做的——例如中國科技公司請很多人做這些事的,當然Google也是。
另一個麻煩且在實用角度是缺點的(會掀起爭議因而被禁用)但可見將來都不太實現的大概就是自我意識——即區別「我」與「他」的能力,現在AI基本上是沒有的。事實上,很多人都害怕什麼AI有自我意識而叛變啊,會「忽然」發展出自我人格之類,但坦白説,「意外地」製造出人格這件事是不太現實的事情,因為很坦白説人類目前不太能開發出自己也不知道是什麼的東西,而要意外地開發出帶有自我意識的意識本身那或然率基本上無限接近於零——因為AI直到目前為止他仍然是機械——老老實實遵照着輸入的指令和資料執行,AI的未知部分通常是對輸入和結果不配對而疑惑,人類會認為蘋果是水果,橙也是水果,為什麼會推薦雞肉呢?再先進的AI也不能以規則以外的方式運行,而所謂的「自我意識恐懼」更多時候人們只是因為AI的決策過程過於難明而覺得他很「聰明」繼而害怕自己不能掌握而已。但事實上人們不能掌握的只是過程,以及偶爾會不理解結果,而有所錯覺。
至於人類腦細胞,目前這樣看距離自我意識的誕生仍然有很大距離的,畢竟看看原文就知道其實遊戲規則還是研究者決定的,因為paper寫他是由研究者定義了錯誤,然後send一個noisy signal,然之後因為腦細胞本身會因為這個signal去修正自己的行為的,並沒有自行理解或制定規則的能力,比起傳統的電腦AI優勢大概是在數字運算以外的範疇會更實用吧,不過目前看可能商用化取代或和電腦AI並存都有相當距離了……
最後,我想説的是,就算、假設AI有自我意識,其實當然會掀起都得爭議,但是好似Matrix那樣佔領再控制人類還是有點難度的——你想得到這個可能那些公司和政府想不到嗎?説到最後就算有自我意識,AI畢竟還是存活於一個受控範圍——即Google/Facebook的伺服器,有任何問題,把物理層面的電源一斷就無法反抗了。這也是很多Pro-AI派對那些AI恐懼者的常見反駁——你真的怕智能叛變,那就他媽的把kill switch管理好啊。