每天資訊清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

菜單

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

編輯部 整理自 MEET 2021

量子位 報道 | 公眾號 QbitAI

人工智慧,現在發展到什麼階段了?

從發展脈絡上看,從符號智慧、感知智慧,現在應該到

認知智慧

階段了。

或者說,我們正走在認知智慧的路上。

今年大火的

GPT-3

,其引數量已然達到了

千億

級別,規模已經接近人類神經元的數量了。

這說明,GPT-3的表示能力已經接近人類了,但它仍有一些認知侷限——沒有常識。

那我們何時、又將如何走向認知智慧?

未來計算機的認知能力,能否超過人類?

什麼樣的模型可以驅動未來的認知AI?

認知智慧的概念是否又該重新定義?

……

在MEET 2021 智慧未來大會現場,清華大學計算機系教授、系副主任

唐傑

用簡單、通俗的例子為我們一一解答。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

當時聽完演講的觀眾直呼:

求唐傑老師的PPT!

(在不改變原意的基礎上,量子位對唐傑的演講進行了編輯整理)

關於MEET 智慧未來大會:MEET大會是由量子位主辦的智慧科技領域頂級商業峰會,致力於探討前沿科技技術的落地與行業應用。本次大會現場有李開復等20餘位行業頂級大咖分享,500餘名行業觀眾參與,超過150萬網友線上收看直播。包括新華社、搜狐科技、澎湃新聞、封面新聞等數十家主流媒體在內紛紛報道,線上總曝光量累計超過2000萬。

亮點

1、認知圖譜有了一個全新概念,它包含三個核心要素:常識圖譜、邏輯生成以及認知推理。

2、GPT-3引數規模已經接近人類神經元的數量,這說明它的表示能力已經接近人類了。但是它有個阿喀琉斯之踵——沒有常識。

3、資料+知識雙重驅動,也許是解決未來認知AI的一個關鍵。

4、用計算模型來解決認知是不夠的,未來需要構建一個真正能夠超越原來的,超越已有模型的一個認知模型。

5、通用人工智慧還有多遠?我們希望它有持續學習的能力,能從已有的事實,從反饋中學到新的東西,能處理一些更復雜的任務。

為什麼是認知圖譜

我給今天的分享起了一個新名字:

“認知圖譜:人工智慧的下一個瑰寶”

為什麼叫認知圖譜?首先看一下人工智慧發展的脈絡。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

從最早的符號智慧,再到後面的感知智慧。最近,所有人都在談論認知智慧。

我們現在需要探討

“計算機有沒有認知”

“計算機能不能做認知、推理”

“計算機到未來有沒有意識,能夠超過人類”

這些問題。

人工智慧發展到現在已經有三個浪潮,我們把人工智慧叫做三個時代分別是符號 AI、感知 AI 和認知 AI,現在正處在實現認知AI的路上。

具體如何實現呢?

我認為需要一些

基礎性

的東西,比如裡面的認知圖譜怎麼構建,裡面認知的一些邏輯,包括認知的基礎設施怎麼建,這也是我們特別想做的一件事情。

回顧機器學習的發展歷程,首先想到的就是很多

分類模型

,比如決策樹,貝葉斯、神經網路……

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

最左邊是分類模型、序列模型、機率圖模型,往右一點是最大化邊界,深度學習,迴圈智慧,隨後是強化學習、深度強化學習,以及最近常提及的無監督學習。

機器思考VS人類思考

機器學習發展到現在,離認知到底還有多遠?

於是,我整理了很多諾貝爾獎和圖靈獎得主的研究,對比了人的認知與機器認知之間的發展模式。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

在探究人類思考的歷程裡,1900年初才有了神經系統結構的第一次解析,隨後在1932年左右,誕生了一個諾獎級的研究:神經元功能

“突觸”

然後就是神經末梢傳遞機制、視覺系統機理、嗅覺系統機理……直到幾年前,科學家們才探索出人的大腦是如何實現定位導航、以及機理是怎麼回事,這也是一個諾獎的研究。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

我們來看下機器是如何思考的。

1950年左右,學者創立了人工智慧系統,但是1970年左右大家開始拼命去模仿人腦,我們要做一個計算機,讓他跟人腦特別相同。

1990年左右,科學家突然發現其實沒有必要模仿,更多的應該是去參考人腦,參考腦系統,做一個有更多機器思考、機器思維的計算機。

所以在當前這個時代,我們應該用更多的計算機思維,來做計算機的思考,而非人的思考。

因此在這之後,就出現了機率圖模型、機率與因果模型以及深度學習。當然,有人會說,到最後你還在講機器學習,在講一個模型,這個離我們真正的認知智慧是不是太遠了?

用計算的方式打造通用人工智慧

過去幾年連我自己都不信,我們可以建造一個

通用人工智慧

,讓計算機系統甚至能夠超越人。

舉一個例子,

OpenAI

兩年前,OpenAI做了**GPT,所有人都覺得只是一個很簡單的語言模型,並不會有什麼水花;

去年,GPT升級成

GPT-2

,15億的引數規模。很多人都可能玩過它的Demo,叫talk to transformer。你可以輸入任何文字,transformer幫你把文字補齊。

但在今年6月份的時候,OpenAI釋出了一個GPT-3,引數規模一下子達到了1750億,數量級接近人類的神經元的數量。

這個時候給我們帶來了極大的震撼,至少說明GPT-3的表示能力已經接近人類了。

意味著理論上,如果我們能讓計算機引數達到最好,GPT-3可能跟人這種智商表現差不多。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

這時候給我們另外一個啟示:

我們到底是不是可以直接透過計算機的結果,也就是計算的方法得到一個超越人類的通用人工智慧?

我們來看一下整個模型過去幾年發展的結果,幾乎每年引數規模是10倍左右的增長,右邊的圖給出了自然語言處理中最近幾年的快速變化,幾乎是一個指數級的變化。

可以看到,前幾年變化相對比較小,今年出了GPT-3,谷歌到了6000億的產出規模,明年ds可能還會到萬億級別。所以這是一個非常快速的增長。

現在,則給到我們另外一個問題,

我們到底能不能用這種大規模、大算力的方法,大計算的方法,來實現真正的人工智慧呢?

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

與此同時,也暴露出另一個痛點——

成本問題

GPT-3,如果用單卡的訓練需要

355年

,整個訓練成本將達到幾億人民幣,一般的公司是做不起來的。

但就算是有網際網路巨頭願意去做,大家是不是都可以用了?

GPT-3有個阿喀琉斯之踵

不著急。先來看看這樣一個例子,左邊是GPT-3模型,右邊是結果。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

第一個是長頸鹿有幾個眼睛?GPT3說有兩個眼睛,沒有問題。

第二個問題,我的腳有幾個眼睛?結果是也有兩個眼睛,這就錯了。

第三個,蜘蛛有幾個眼睛?8個眼睛。

第四個太陽有幾個眼睛?一個眼睛。

最後一個問題,一根草有幾個眼睛?一個眼睛。

可以看到,GPT3很聰明,可以

生成所有的結果

,但它有個阿喀琉斯之踵——沒有常識。

這時候就需要一個常識的知識圖譜。

2012年,谷歌發出了一個Knowledge Graph,就是知識圖譜。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

當時的概念是,我們利用大量的資料能不能建一個圖譜?於是在未來的搜尋中,可以自動把搜尋結果結構化,自動的結構化的資料反饋出來。

知識圖譜不僅可以應用到搜尋引擎,還可以給計算機帶來一些常識性的知識。

因此,我們是否可以透過這一方法來幫助未來的計算呢?

「資料+知識」驅動未來的認知AI

其實,知識圖譜在很多年前就已經發展起來。

從第一代人工智慧——符號AI的時候,就已經開始在做,當時將知識圖譜定義為

“符號 AI 的邏輯表示”

但到現在也還沒有大規模的發展起來,主要有幾個方面的原因。

第一,構建的成本非常的高。

CYC,最早的知識圖譜之一,負責定義

知識斷言

簡單來說就是,一個ABC三元組,A 就是主體,B 就是關係,C是受體。

比如,

人有手

,人就是主體,有就是關係,手就是受體。

這麼一個簡單的問題,成本就在

5。7 美元

第二,自動構建精度很低。

另一個典型的知識圖譜

NELL

,網際網路完全自動方法的生成出來,但錯誤率一下子提高到10倍。

這兩個專案目前基本上都處於

半停滯

狀態。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

於是,我們現在就在思考,若是將上述兩種方式結合在一起,是否能夠驅動認知AI?

第一,從大資料的角度,做資料驅動。用深度學習舉十反一的方法,把所有的資料進行建模,並且學習資料之間的關聯關係,學習資料的記憶模型。

第二,我們要用知識驅動,構建一個知識圖譜,用知識驅動整個事情。

我們把兩者結合起來,這也許是解決未來認知 AI 的一個關鍵。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

當然這些也還不夠。我們的未來是需要構建一個真正能夠超越原來的、已有模型的一個認知模型。

我們需要一個全新的架構框架,也需要一個全新的目標函式,這時候才有可能超過這樣的預訓練模型,否則就是在跟隨 GPT-3。

而放在眼下要做的,就是讓機器有一定的創造能力,光文字還不夠,我們希望創造出真正的圖片,它是創造,不是查詢。

比如,機器可以透過文字,將原有的圖片生成新的圖片。

當然,光創造還不夠,我們離真正通用的人工智慧還有多遠?

我們希望真正的通用人工智慧有持續學習的能力,能夠從已有的事實,從反饋中學習到新的東西,能夠完成一些更加複雜的任務。

認知AI的九準則

這時候,再回到起初最基本的問題:

什麼叫認知?

只要有可持續學習的能力就是認知嗎?

如果這樣的話,GPT-3也有持續學習的能力,知識圖譜也有學習的能力,因為它在不停的更新。

如果能完成一些複雜任務就是認知嗎?

也不是,我們已經有些系統已經可以完成非常複雜的問題。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

那什麼是認知呢?

最近,透過我們的一些思考,定義了認知 AI 的九準則。這九個準則是我從人的認知和意識中抽象出來的九個準則。

第一個,叫適應與學習能力

比如說今天MEET 大會,機器人自動學習,可以知道在這個特定的場景下應該做什麼事情。

第二個,叫定義與語境能力

模型能夠在特定語境下感知上下文,對環境有一定的感知能力。

第三個,叫自我係統的准入能力

機器能夠自定義什麼是我,什麼是非我,這叫人設。如果這個機器能知道自己的人設是什麼,那麼我們認為它有一定的認知能力。

第四個,優先順序與訪問控制能力

在一定的特定場景下它有選擇的能力。我們人都可以在雙十一選擇購物,如果機器在雙十一的時候能選擇我今天想買點東西,明天后悔了,不應該買。

這時候機器有一定的優先順序和訪問控制。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

第五個,召集與控制能力

。這個機器應該有統計和決策的能力。

第六個,決策與執行能力

,機器人在感知到所有的資料以後可以做決策。

第七個,錯誤探測與編輯能力

這個非常重要,人類的很多知識都在試錯中發現的。比如現在學的很多知識,我們並不知道什麼知識是最好的。

我們需要不停的試錯,也許我們今天學到了1+1=2 是很好,但是你嘗試1+1=3,1+1=0,是不是也可以呢?你嘗試完了發現都不對,這叫做錯誤探測與編輯,讓機器具有這個能力,非常地重要。

第八個,反思與自我控制、自我監控

如果這個機器人在跟你聊天的過程中,聊了很久,說“不好意思我昨天跟你說的一句話說錯了,我今天糾正了。”這時候機器具有反思能力。

最後,這個機器一定要有條理和理性。

一個面向認知的AI架構

在九個準則的基礎上,我們提出了一個全新的認知圖譜的概念。

主要有三個核心要素。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

第一個,

常識圖譜

,這與知識圖譜的幾個要素非常相關。比如說高精度知識圖譜的構建、領域知識圖譜的應用系統、超大規模知識圖譜的構建,還有基於知識圖譜的搜尋和推薦,這是傳統的一些東西。

第二個,

邏輯生成

。這需要超大規模的預訓練模型,並且能夠自動進行內容生成。同時我們在未來可以構建一個數字人的系統,它能夠自動的在系統中,能夠生成相關的東西,能夠做得像人一樣的數字人。

第三個,

認知推理

。讓計算機有推理、有邏輯的能力。

這時候說起來比較虛,用人的認知來通俗理解一下。

人的認知有兩個系統,一個叫系統1,一個叫系統2。

系統1

就是計算機做的匹配。

你說,清華大學在哪?它便立刻匹配出來

北京

但如果你要是問,清華大學在全球計算機裡到底排第幾?以及為什麼是這個名次?

這時候計算機就回答不了,這就需要一定的邏輯推理,也就是系統2所做的事情。

當前所有的深度學習都是做

系統1

,解決了系統1問題——直覺認知,而不是邏輯認知。

因此在未來,我們要做更多關於

系統2

的事情。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

從腦科學來看,相對現在做的事情有兩個最大的不同,第一,就是記憶,第二就是認知推理。

記憶是透過海馬體實現,認知是前額葉來實現。這兩個系統非常關鍵,如何實現呢?

我們看記憶模型,巴德利記憶模型分三層,短期記憶就是一個超級大的大資料模型。

在大資料模型中,我們怎麼把大資料模型中有些資訊變成一個長期記憶變成我們知識,這就是記憶模型要做的事情。

那認知模型呢?我們構建了一個面向認知的AI架構。

清華唐傑:GPT-3表示能力已接近人類了,但它有阿喀琉斯之踵

這個框架左邊是一個查詢介面,這是輸入,也可以說成是使用者端。

中間是一個超大規模的預訓練模型,然後是一個記憶模型。

記憶模型透過試錯、蒸餾,把一些資訊變成一個長期記憶存在長期記憶模型中。

長期記憶模型中會做無意識的探測,也會做很多自我定義和條理的邏輯,並且做一些認知的推理。

在這樣的基礎上我們構建一個平臺。最終目標是打造一個知識和認知推理雙輪驅動的一個框架。底層是分散式的儲存和管理,中間是推理、決策、預測,再上面是提供各式各樣的API。

好,我今天大概就把我們的理念和想法給大家介紹一下,如果大家有興趣的話,可以查閱我們更多的資訊。

謝謝大家!