ChatGPT不是一天建成的:人類如何用66年實現(xiàn)今天的AI聊天?
羅馬不是一天建成的。
當人工智能對話工具ChatGPT一夜之間成為頂流,在略顯沉悶的科技界如閃電般發(fā)出炫目光芒后,它似乎點亮了指引投資界方向的明燈,一些商界人士的內(nèi)心開始“騷動”。
的確,這個成績是史無前例的。ChatGPT是有史以來用戶增長最快的互聯(lián)網(wǎng)服務,推出僅兩個月就獲得了1億用戶。它被內(nèi)置于微軟的必應搜索引擎中,把谷歌頃刻間拉下神壇,正在促成搜索引擎自誕生以來的重大轉(zhuǎn)折點。
但ChatGPT絕非憑空而來。這款聊天機器人是多年來一系列大型語言模型中最完善的一個。梳理ChatGPT的簡要歷史就會發(fā)現(xiàn),在其誕生前,有無數(shù)技術的迭代、理論的發(fā)展為它鋪路。
20世紀五六十年代:符號與亞符號人工智能
人工智能這一術語始于1956年的美國達特茅斯學院,經(jīng)歷幾十年“三起兩落”的發(fā)展階段,有過“寒冬”,也有過“盛夏”:幾次重大事件讓一度歸于沉寂的人工智能研究再次成為被廣泛討論的熱門話題。ChatGPT的成功,源于以深度學習為代表的人工智能技術的長期積累。
1956年達特茅斯會議,約翰·麥卡錫、馬文·明斯基、克勞德·香農(nóng)、艾倫·紐厄爾、赫伯特·西蒙等科學家正聚在一起,討論用機器來模仿人類學習以及其他方面的智能。這一年被譽為人工智能誕生元年。
人工智能領域主要有兩類,一類是符號人工智能(symbolic AI),另一類是以感知機為雛形的亞符號人工智能(subsymbolic AI)。前者的基本假設是智能問題可以歸為“符號推理”過程,這一理論可追溯至計算機鼻祖、法國科學家帕斯卡和德國數(shù)學家萊布尼茨,真正體現(xiàn)這一思想的所謂智能機器,源于英國的查爾斯·巴貝奇(Charles Babbage)和艾倫·圖靈(Alan Turing)的開創(chuàng)性工作。
亞符號人工智能的出現(xiàn)歸功于行為主義認知理論的崛起,其思想基礎是“刺激-反應理論”。美國神經(jīng)生理學家沃倫·麥克卡洛克(Warren McCulloch)、沃爾特·皮茨(Walter Pitts)提出神經(jīng)元模型后,心理學家弗蘭克·羅森布拉特(Frank Rosenblatt)提出了感知機模型,奠定了神經(jīng)網(wǎng)絡的基礎。
早期的神經(jīng)網(wǎng)絡技術秉承人工智能深度學習“逐層遞進、層層抽象”的基本思想,出現(xiàn)了諸如MCP神經(jīng)元、感知機和前饋神經(jīng)網(wǎng)絡等模型,它們通常由多個處理信息且相互連接的“神經(jīng)元”組成,其靈感來自人腦中所連接神經(jīng)元之間的信息交換。
20世紀五六十年代,人工智能在符號演算和感知機兩個方向上都陷入了停滯。在麻省理工學院和加州大學伯克利分校任教的休伯特·德雷福斯(Hubert Dreyfus )1965年發(fā)表《煉金術與人工智能》報告,將當時所進行的神經(jīng)網(wǎng)絡研究與歷史上的煉金術相提并論,辛辣指出爬上樹梢不等于攀登月球。1973年,“萊特希爾報告”對當時的符號主義人工智能提出批評,認為“迄今的發(fā)現(xiàn)尚未產(chǎn)生當時承諾的重大影響”,人工智能第一次跌入低谷。
80年代興起的專家系統(tǒng)和神經(jīng)網(wǎng)絡,也因為受制于計算能力和對智能的理解,并未獲得實質(zhì)性的突破,使得人工智能跌入了第二次低谷。
但從80年代開始,一棵大樹已經(jīng)播種。
20世紀八九十年代:遞歸神經(jīng)網(wǎng)絡
理解和使用自然語言是人工智能面臨的最大挑戰(zhàn)之一。語言常常充滿歧義,極度依賴語境,而且通常用語言溝通的各方需要具備大量共同的背景知識。與人工智能的其他領域一樣,自然語言處理相關的研究在最初的幾十年集中在符號化的、基于規(guī)則的方法上,并沒有取得很好的效果。遞歸神經(jīng)網(wǎng)絡(Recurrent Neural Networks)改變了一切。
ChatGPT是基于大型語言模型GPT-3的一個對話式版本,而語言模型是一種經(jīng)過大量文本訓練的神經(jīng)網(wǎng)絡。由于文本是通過不同長度的字母和單詞序列組成,語言模型需要一種能夠“理解”這類數(shù)據(jù)的神經(jīng)網(wǎng)絡,發(fā)明于20世紀80年代的遞歸神經(jīng)網(wǎng)絡可以處理單詞序列。但有一個問題是,它們的訓練速度很慢,而且可能會忘記序列中之前的單詞。
1997年,計算機科學家斯皮·哈切瑞特(Sepp Hochreiter)和尤爾根·斯成杜博(Jürgen Schmidhuber)通過發(fā)明長短期記憶(LSTM)網(wǎng)絡解決了這個問題,這是一種具有特殊成分的循環(huán)神經(jīng)網(wǎng)絡,可以讓輸入序列中的過去的數(shù)據(jù)保留更長時間。LSTMs可以處理幾百個單詞長的文本字符串,但他們的語言技能有限。
在人工智能處理自然語言出現(xiàn)重大突破前夕,神經(jīng)網(wǎng)絡和機器學習在2016年發(fā)生了一次“出圈”事件。谷歌公司的AlphaGo在各種圍棋比賽中大獲全勝,給全世界做了一次人工智能科普。DeepMind創(chuàng)始人之一沙恩·萊格(Shane Legg)認為,超越人類水平的人工智能將在2025年左右出現(xiàn)。谷歌公司戰(zhàn)略委員會成員雷·庫茲韋爾(Ray Kurzweil)則提出了令人震驚的“奇點理論”,認為2029年完全通過圖靈測試的智能機器將會出現(xiàn),以強人工智能為基礎的智能爆炸將會在2045年出現(xiàn)。
AlphaGo戰(zhàn)勝李世石和柯潔。
2017年:Transformer
谷歌的一個研究團隊發(fā)明了Transformer,這是一種神經(jīng)網(wǎng)絡,可以跟蹤每個單詞或短語在序列中出現(xiàn)的位置,從而實現(xiàn)了當今這一代大型語言模型背后的突破。單詞的含義通常取決于前面或后面其他單詞的含義。通過跟蹤這些上下文信息,Transformer可以處理更長的文本字符串,并更準確地捕捉單詞的含義。例如,“hot dog”在“Hot dogs should be given plenty of water(狗熱了要多喝水)”和“Hot dogs should be eaten with mustard(熱狗應該和芥末醬一起吃)”這兩個句子中的含義截然不同。
谷歌發(fā)布Transformer的那篇著名論文。
Transformer能夠同時并行進行數(shù)據(jù)計算和模型訓練,訓練時長更短,并且訓練得出的模型可用語法解釋,也就是模型具有可解釋性。
經(jīng)過訓練后,Transformer在包括翻譯準確度、英語成分句法分析等各項評分上都達到了業(yè)內(nèi)第一,成為當時最先進的深度學習模型。
Transformer自誕生的那一刻起,就深刻地影響了接下來幾年人工智能領域的發(fā)展軌跡。短短的幾年里,該模型的影響已經(jīng)遍布人工智能的各個領域——從各種各樣的自然語言模型到預測蛋白質(zhì)結(jié)構(gòu)的AlphaFold2模型,用的都是它。
2018年:GPT-1
在Transformer誕生還不到一年的時候,人工智能研究機構(gòu)OpenAI推出了具有1.17億個參數(shù)的GPT-1模型,GPT是Generative Pre-training Transformer(生成式預訓練Transformer)的縮寫,即用大量數(shù)據(jù)訓練的基于Transformer的模型。該公司希望開發(fā)多技能、通用的人工智能,并相信大型語言模型是實現(xiàn)這一目標的關鍵一步。
GPT將Transformer與無監(jiān)督學習相結(jié)合,這是一種根據(jù)事先未注釋的數(shù)據(jù)訓練機器學習模型的方法。這讓軟件可以自己找出數(shù)據(jù)中的模式,而無需被告知它在看什么。機器學習先前的許多成功都依賴于監(jiān)督學習和注釋數(shù)據(jù),但手動標記數(shù)據(jù)是一項緩慢的工作,因此限制了可用于訓練的數(shù)據(jù)集的大小。
GPT最終訓練所得的模型在問答、文本相似性評估、語義蘊含判定以及文本分類這四種語言場景,都取得了比基礎Transformer模型更優(yōu)的結(jié)果,成為了新的業(yè)內(nèi)第一。
為了創(chuàng)造通用人工智能,“你需要有數(shù)十億美元的投資?!監(jiān)penAI LP的首席科學家Ilya Sutskever(左)2019年說。他與該公司當時的首席技術官Greg Brockman坐在一起。
2019年:GPT-2
微軟向OpenAI投資了十億美元。同年,OpenAI公布了具有15億個參數(shù)的模型:GPT-2。該模型架構(gòu)與GPT-1原理相同,主要區(qū)別是GPT-2的規(guī)模更大(10倍)。同時,他們發(fā)表了介紹這個模型的論文“Language Models are Unsupervised Multitask Learners” (語言模型是無監(jiān)督的多任務學習者)。在這項工作中,他們使用了自己收集的以網(wǎng)頁文字信息為主的新的數(shù)據(jù)集。不出意料,GPT-2模型刷新了大型語言模型在多項語言場景的評分紀錄,引起了更大的轟動。但OpenAI稱,他們非常擔心人們會使用GPT-2“產(chǎn)生欺騙性的、有偏見的或辱罵性的語言”,因此不會發(fā)布完整的模型。
2020年:GPT-3
GPT-2令人印象深刻,但OpenAI的后續(xù)GPT-3引起了更大的反響,它實現(xiàn)了生成類人文本能力的巨大飛躍。GPT-3可以回答問題、總結(jié)文檔、生成不同風格的故事,在英語、法語、西班牙語和日語之間進行翻譯等。它的模仿能力不可思議。
最顯著的收獲之一是,GPT-3的收益來自于現(xiàn)有技術的超大規(guī)?;?,而不是發(fā)明新技術。 GPT-3有1750億個參數(shù),比前兩款GPT模型要大得多:經(jīng)過基礎過濾的全網(wǎng)頁爬蟲數(shù)據(jù)集(4290億個詞符)、維基百科文章(30億詞符)、兩個不同的書籍數(shù)據(jù)集(一共670億詞符)。它的模型架構(gòu)與GPT-2沒有本質(zhì)區(qū)別。
GPT-3面世時未提供廣泛的用戶交互界面,并且要求用戶提交申請,申請批準后才能注冊,所以直接體驗過GPT-3模型的人并不多。
早期測試結(jié)束后,OpenAI對GPT-3進行了商業(yè)化:付費用戶可以通過應用程序接口(API)連上GPT-3,使用該模型完成所需語言任務。2020年9月,微軟公司獲得了GPT-3模型的獨占許可,意味著微軟可以獨家接觸到GPT-3的源代碼。
與此同時,上一代的缺點進一步被放大,谷歌的人工智能倫理團隊聯(lián)合主管蒂姆尼特·格布魯(Timnit Gebru)與人合著了一篇論文,強調(diào)了與大型語言模型相關的潛在危害,但該論文不受公司內(nèi)部高級經(jīng)理的歡迎。2020年12月,格布魯被解雇。
2022年1月:InstructGPT
GPT-3公測期間用戶提供了大量的對話和提示語數(shù)據(jù),而OpenAI內(nèi)部的數(shù)據(jù)標記團隊也生成了不少人工標記數(shù)據(jù)集。OpenAI用這些數(shù)據(jù)對GPT-3用監(jiān)督式訓練進行了微調(diào),并收集了微調(diào)過的模型生成的答案樣本,使用獎勵模型和更多的標注過的數(shù)據(jù)繼續(xù)優(yōu)化微調(diào)過的語言模型,并且進行迭代,最終得到了InstructGPT。InstructGPT更善于遵循人的指示,并且產(chǎn)生更少的冒犯性語言、更少的錯誤信息和更少的整體錯誤。
大型語言模型一個普遍的問題是,訓練它們的成本,使得只有最富有的實驗室才能創(chuàng)建一個。這引發(fā)了人們的擔憂,即這種強大的人工智能是由小型企業(yè)團隊秘密開發(fā)的,沒有經(jīng)過適當?shù)膶彶椋矝]有更廣泛的研究社區(qū)的投入。作為回應,一些合作項目開發(fā)了大型語言模型,并將它們免費發(fā)布給任何想要研究和改進該技術的研究人員。Meta構(gòu)建并給出了OPT,這是GPT-3的重構(gòu)。Hugging Face領導了一個由大約1000名志愿研究人員組成的聯(lián)盟來構(gòu)建和發(fā)布BLOOM。
OpenAI工作人員和Dota 2電子競技團隊OG的成員一起拍照。
2022年12月:ChatGPT
最終,2022年12月,ChatGPT面世。與InstructGPT模型類似,ChatGPT是OpenAI對GPT-3模型微調(diào)后開發(fā)出來的對話機器人。OpenAI官網(wǎng)信息顯示,ChatGPT與InstructGPT是姐妹模型。與InstructGPT一樣,ChatGPT使用強化學習對人類測試人員的反饋進行了訓練,這些測試人員對其表現(xiàn)進行了評分,使其成為流暢、準確且無害的對話者。從此以后,全球有1億人在和它聊天。
用戶們在社交媒體上曬出來的對話例子表明,ChatGPT能完成包括寫代碼、代碼改錯、翻譯文獻、寫小說、寫商業(yè)文案、創(chuàng)作菜譜、做作業(yè)、評價作業(yè)等一系列常見文字輸出型任務。ChatGPT比GPT-3更優(yōu)秀的一點在于,前者在回答時更像是在與用戶對話,而后者更善于產(chǎn)出長文章,欠缺口語化的表達。
ChatGPT一夜走紅之后,在全球引發(fā)了高度關注,有業(yè)內(nèi)人士認為它將影響包括搜索引擎、廣告業(yè)、教育行業(yè)等領域。2022年12月,谷歌內(nèi)部發(fā)布紅色警報,著手進行緊急應對。
在接受《時代》專訪時,ChatGPT回答道:我還有很多局限,但人類應準備好應對AI。