ChatGPT
出自 MBA智库百科(https://wiki.mbalib.com/)
ChatGPT——OpenAI推出的人工智慧聊天機器人
目錄 |
ChatGPT全稱為“chat Generative Pre-trained Transformer”,翻譯成中文就是生成型預訓練變換模型。它是美國公司OpenAI在2022年11月30日發佈研發的聊天機器人程式,能用於問答、文本摘要生成、機器翻譯、分類、代碼生成和對話AI。[1]是一款人工智慧技術驅動的自然語言處理工具。
ChatGPT具有同類產品具備的一些特性,例如對話能力,能夠在同一個會話期間內回答上下文相關的後續問題。然而,其在短時間內引爆全球的原因在於,在網友們曬出的截圖中,ChatGPT不僅能流暢地與用戶對話,甚至能寫詩、撰文、編碼。
ChatGPT還採用了註重道德水平的訓練方式,按照預先設計的道德準則,對不懷好意的提問和請求“說不”。一旦發現用戶給出的文字提示裡面含有惡意,包括但不限於暴力、歧視、犯罪等意圖,都會拒絕提供有效答案[2]。
ChatGPT推出僅僅2個月,就達到月活過億,成為歷史上增長最快的消費者應用程式。與其他流行應用程式相比,這一增長令人印象深刻,如TikTok在全球推出後用約9個月時間達到1億用戶,Instagram花了2.5年。
ChatGPT的應用領域[3]
ChatGPT主要應用的大規模預訓練語言模型技術,在金融行業的不少細分領域都已有所應用。例如,對公告和研報等數據進行結構化處理,提高數據生產效率;對海量資訊進行監測和篩選,發掘有價值的投資信息;對智能客服進行訓練,使其更加精準有效地解決客戶提問等。
ChatGPT在金融領域的確應用廣泛,也能極大提升使用者的效率。甚至不久的將來,隨著技術進步,信息更新、回答準確性、算力成本等因素無法再掣肘,ChatGPT在一些領域將能實現從“效率工具”到“生產工具”的突破,進而徹底取代一些重覆性、基礎性的人力工作。
不過,儘管ChatGPT已可進行一定的內容生產,可仍需依賴使用者精心設計的提問來運作,產出內容通常還存在諸多不足。有分析師總結為:ChatGPT的回答更像是市場一致預期的精準表達,難免囿於“重覆正確的廢話”之嫌。
有分析師也曾嘗試基於ChatGPT的協助去構建量化交易模型,但最終結論是想單純依靠ChatGPT給出的模型開發成熟的、可盈利的策略是不切實際的,因為其給出的模型相對簡單,且無法對數據進行分析,參數設置也缺乏邏輯支持。
起名 "ChatGPT" 的原因是,這個模型是預先訓練過的,專為對話和生成文本而設計,並使用 Transformer 架構。因此,"Chat" 表示它是一個對話模型,"GPT" 則代表了它是使用 Generative Pretrained Transformer 架構構建的。
Generative Pretrained Transformer(GPT)是一種自然語言生成模型,是以訓練數據預訓練語言模型的技術。GPT 是基於 Transformer 架構,是目前最流行的自然語言生成模型之一。GPT 的網路結構包括一個序列處理模塊(例如詞嵌入層),多個編碼器和解碼器層,以及一個預測層。該模型通過對大量的歷史文本數據進行預訓練,學習了語言和語法的特征。這使得 GPT 在生成文本任務(例如語音識別、翻譯和對話生成)中取得了出色的效果。
在訓練過程中,GPT 預測下一個詞的概率,根據該預測和原始文本的預期輸出進行評估,並通過反向傳播演算法調整模型的參數。GPT 的主要優勢在於它的可解釋性和它的生成質量。因此,GPT 被廣泛用於自然語言處理應用,例如語音識別、翻譯和對話生成。
Transformer 架構是一種用於自然語言處理任務的深度神經網路架構,首次提出於 2017 年。它採用了註意力機制,可以解決序列數據中的長依賴性問題。
Transformer 架構最大的特點是它的自註意力機制,它可以學習詞語之間的關係,並綜合不同位置的詞語,得出整個序列的含義。這種機制使得 Transformer 架構可以並行地處理整個輸入序列,從而加速訓練和推理過程。
Transformer 架構在 NLP 領域取得了顯著的成功,並已經成為大多數 NLP 任務的首選架構。它們可以被用於情感分析、機器翻譯、語音識別等任務。
總的來說,Transformer 架構是一種用於自然語言處理任務的高效和強大的架構,它已經在實際應用中取得了很大的成功。
ChatGPT如何進行預訓練
預訓練是機器學習中的一種方法,它指的是使用大量的預先數據訓練一個模型,使其能夠從數據中學到一些基礎知識和模式,並將這些知識用於更加特定的任務。 預訓練可以使用大量的文本數據,例如網路文本、書籍、新聞等,對於電腦視覺、語音識別和自然語言處理等領域的任務,可以使用大量的圖像、音頻和語音數據進行預訓練。預訓練的模型可以使用遷移學習的方法被用於其他任務,可以在訓練數據不夠多的情況下提高模型的性能。
通常,預訓練模型在大量數據上被訓練一個極大的多層網路,然後將其微調以適合特定的任務。預訓練和微調的技術是深度學習領域的重要技術,在很多領域中取得了顯著的成果。
ChatGPT 與其他AI最大的區別
ChatGPT 與其他 AI 的最大區別在於它是一種基於 Transformer 架構的生成式預訓練模型。ChatGPT 是通過預先訓練在大量文本數據上,以生成文本為目標,來學習文本生成任務的模型。這種方法與其他機器學習方法最大的不同之處在於,它是在沒有任何特定任務目標的情況下,通過預先學習整個語言模型的方法,然後再在特定的任務上調整模型的參數。相比其他 AI,ChatGPT 具有更高的語言理解能力,更好的語言生成能力,以及更高的適應性。
影響ChatGPT思考邏輯的因素
ChatGPT作為一種自然語言處理技術,其邏輯主要受以下幾個因素影響:
- 語境信息: ChatGPT 運用上下文信息來理解語句的意思,因此如果語境不足或者語境信息有誤,也可能影響 ChatGPT 的邏輯思考。
總的來說, ChatGPT 的邏輯思考受到語言環境、語境信息、訓練數據以及演算法本身局限的影響。因此,在使用 ChatGPT 時需要註意一些因素,以保證它的邏輯思考儘量準確。
ChatGPT的中文與英文訓練數據
ChatGPT的中文和英文訓練數據不一樣,他們分別以中文和英文為基礎使用不同的語言數據集進行訓練。中文版本的ChatGPT訓練了大量中文文本,而英文版本的ChatGPT則使用了大量的英文文本。這樣做是為了確保模型可以更好地理解並生成對應的語言。
用於ChatGPT 訓練的數據格式
通常,ChatGPT 的訓練數據是以文本形式提供的。這些文本數據可以是網頁、新聞、書籍、對話等。這些文本數據可以經過預處理以獲得最佳的訓練效果,例如:清理噪音數據、替換鏈接和數字、標準化語法等。
此外,還可以使用其他格式的數據,例如:音頻、圖像等,但這通常需要先將它們轉換為文本形式,再作為訓練數據。
- 2023年1月28日,人工智慧聊天機器人ChatGPT已經被亞馬遜用於許多不同的工作職能中,包括回答面試問題、編寫軟體代碼和創建培訓文檔等。一名員工在Slack上表示,亞馬遜Amazon Web Services(AWS)雲部門已經成立了一個小型工作組,以更好地瞭解人工智慧對其業務的影響。通過測試,該團隊發現ChatGPT在回答AWS客戶支持問題方面“做得非常好”。[6]
- 據英國《每日郵報》報道,2023年1月30日,哥倫比亞加勒比市的法官加西亞成為全球第一位在法律裁決工作中利用ChatGPT的法官。在審理一宗自閉症兒童家庭訴保險公司的案件中,加西亞請ChatGPT列出了全國早前同類案件的判例,並引述了相關法律條條文。最終,結合自己的觀點和ChatGPT的回答,法官加西亞做出了判決。[7]
- 2023年2月2日,美國人工智慧(AI)公司OpenAI發佈ChatGPT試點訂閱計劃——ChatGPT Plus。ChatGPT Plus將以每月20美元的價格提供,訂閱者可獲得比免費版本更穩定、更快的服務,及嘗試新功能和優化的優先權[8]。
- 2023年2月2日,微軟官方公告表示,旗下所有產品將全線整合ChatGPT,除此前宣佈的搜索引擎必應、Office外,微軟還將在雲計算平臺Azure中整合ChatGPT,Azure的OpenAI服務將允許開發者訪問AI模型[4]。
- 2023年2月3日,IT 行業的領導者們擔心,大名鼎鼎的人工智慧聊天機器人 ChatGPT,已經被黑客們用於策劃網路攻擊時使用。 黑莓 (Black Berry) 的一份報告調查了英國 500 名 IT 行業決策者對 ChatGPT 這項革命性技術的看法,發現超過四分之三 (76%) 的人認為,外國已經在針對其他國家的網路戰爭中使用 ChatGPT。近一半 (48%) 的人認為,2023 年,將會出現有人惡意使用 ChatGPT 而造成“成功”的網路攻擊[9]。
- 2023年2月3日,ChatGPT的開發公司——美國人工智慧公司OpenAI順勢推出了這一應用程式的付費訂閱版本——ChatGPT Plus。ChatGPT Plus將以每月20美元的價格提供,訂閱者可獲得比免費版本更穩定、更快的服務,及嘗試新功能和優化的優先權。[10]。
- 2023年2月8日凌晨,在華盛頓雷德蒙德舉行的新聞發佈會上,微軟宣佈將OpenAI傳聞已久的GPT-4模型集成到Bing及Edge瀏覽器中,微軟稱之為“普羅米修斯模型”,並表示它比GPT 3.5更強大[13]。
南開大學電腦學院、網路空間安全學院副院長劉曉光認為,ChatGPT之所以能夠突然爆火,可能有這樣幾個原因:“一是此前幾代GPT更多是面向商界提供技術支持,而ChatGPT則是直接面向大眾,誰都可以提問,回答也只需等幾秒,更多的人能簡單而直觀地瞭解它的作用;二是它發佈時正值國外的大學考試季,很多學生拿它寫論文、交作業,而ChatGPT能給出相對完整的回答,解決了學生的實際問題,由此迎來用戶快速增長。當然,它火熱到一定程度後,也不排除有科技巨頭企業、科技媒體的過度關註和一些炒作現象。”[1]
ChatGPT橫空出世,發展速度迅疾,用戶註冊破億所用時間打破了TikTok在美國的記錄,帶熱了整個AIGC概念。
ChatGPT對於整個人工智慧相關行業是一個極大的鼓舞,對於人工智慧行業的科技公司和從業者來說,都有必要深入地思考未來在技術生態鏈中的定位,以及公司未來在研究方向和業務應用方向的定位與佈局。
ChatGPT代表了未來AI的發展趨勢。
與傳統的語音交互、圖像識別等AI應用類似,ChatGPT也是一種人機交互。人通過文字和機器對話,獲得內容。但ChatGPT的突破之處在於,它可以基於大數據集自己生成內容,而不是簡單的比對和匹配。這意味著AI掌握了一定的自學習能力,技術迭代的速度大幅提升。
在所謂的AI 1.0時代,人們使用語音交互時,獲得的內容是技術人員提前預設的,AI只是在海量數據庫中做快速比對,如果資料庫中並沒有對應內容,AI無法自己生成內容。因此,ChatGPT的誕生也被市場認為是AI 2.0時代到來的象徵,未來會影響到各行各業。
新一代操作系統平臺的雛形[14]
多語言撰寫充滿想象力的詩歌,編寫可運行的程式,快速生成論文摘要,自動製作數據表格,糾正文章中的語法和表達錯誤,把一周大事寫成新聞綜述……ChatGPT不僅能理解很多人類問題和指令,流暢展開多輪對話,也在越來越多領域顯示出解決多種通用問題的能力。
ChatGPT還輕鬆通過一些對人類難度較高的專業級測試:它新近通過了谷歌編碼L3級(入門級)工程師測試;分別以B和C+的成績通過了美國賓夕法尼亞大學沃頓商學院MBA的期末考試和明尼蘇達大學四門課程的研究生考試;通過了美國執業醫師資格考試……業界形容它的誕生是人工智慧時代的“iPhone時刻”,意味著人工智慧迎來革命性轉折點。
“ChatGPT的成功不應僅僅被看作新一代聊天機器人的突破,而應該重視其對人工智慧乃至整個信息產業帶來的革命。”北京智源人工智慧研究院院長黃鐵軍接受記者專訪時說,人工智慧領域的過去十年是深度學習的十年,但產業總體上並沒有出現移動互聯網和雲計算級別的爆發,“ChatGPT的出現,具有劃時代意義,大模型+ChatGPT已形成新一代操作系統平臺的雛形”。
黃鐵軍說,ChatGPT在技術路徑上採用了“大數據+大算力+強演算法=大模型”路線,又在“基礎大模型+指令微調”方向探索出新範式,其中基礎大模型類似大腦,指令微調是交互訓練,兩者結合實現逼近人類的語言智能。ChatGPT應用了“基於人類反饋的強化學習”訓練方式,用人類偏好作為獎勵信號訓練模型,促使模型越來越符合人類的認知理解模式。
“這樣的AI可幫助人類進行真實創造,尤其是幫助人類提高創造效率,比如提高獲取信息的效率或提出新穎想法,再由人解決其真實性問題。創造效率的提高將產生巨大效益和多方面影響,可以改變世界信息化格局。”中國科學技術大學機器人實驗室主任陳小平對記者說。
引發新一輪人工智慧科技競賽[14]
ChatGPT的問世正在人工智慧領域引發新一輪科技競賽。北京時間2月8日凌晨,微軟推出由ChatGPT支持的最新版本必應搜索引擎和Edge瀏覽器,宣佈要“重塑搜索”。微軟旗下Office、Azure雲服務等所有產品都將全線整合ChatGPT。
北京時間2月7日凌晨,谷歌也發佈了基於谷歌LaMDA大模型的下一代對話AI系統Bard。同一天,百度官宣正在研發的大模型類項目“文心一言”,計劃在3月完成內測,隨後對公眾開放。阿裡巴巴、京東等中國企業也表示正在或計劃研發類似產品。
人工智慧大模型領域的全球競爭已趨白熱化。黃鐵軍認為,ChatGPT未來有望演變成新一代操作系統平臺和生態。這種變革似移動互聯網從個人電腦到手機的轉化,大部分計算負荷將由大模型為核心的新一代信息基礎設施接管。這一新範式將影響從應用到基礎設施各層面,引發整個產業格局的巨變,大模型及其軟硬體支撐系統的生態之爭將成為未來十年信息產業焦點。
值得註意的是,ChatGPT有時會“一本正經地胡說八道”,存在事實性錯誤、知識盲區和常識偏差等諸多問題,還面臨訓練數據來源合規性、數據使用的偏見性、生成虛假信息、版權爭議等人工智慧通用風險。多家全球知名學術期刊為此更新編輯準則,包括任何大型語言模型工具都不會被接受為研究論文署名作者等。
“學術論文的署名作者須滿足至少兩個條件,其一是在論文工作中做出‘實質性貢獻’,其二是能承擔相關的責任。目前這兩個條件ChatGPT(以及其他AI系統)都不滿足。”陳小平說。
ChatGPT也有應用在輿論信息戰方面的潛力。加拿大麥吉爾大學研究團隊曾使用ChatGPT前代模型GPT-2閱讀加拿大廣播公司播發的約5000篇有關新冠疫情的文章,然後要求其生成關於這場危機的“反事實新聞”。連OpenAI也警告使用ChatGPT的用戶,它“可能偶爾會生成不正確的信息”,“產生有害指令或有偏見的內容”。
“針對這些問題,需要我們在發展技術的同時,對於ChatGPT應用邊界加以管控,建立起對人工智慧生成內容的管理法規,對利用人工智慧生成和傳播不實不良內容進行規避。同時加強治理工具的開發,通過技術手段識別人工智慧生成內容。這對於內容檢測和作品確權,都是重要前提。”北京瑞萊智慧科技有限公司副總裁唐家渝說。
“出主意”式產業變革[15]
如果說此前的信息和大數據技術,例如基於信息搜索的互聯網系統,本質上是執行工具,也就是按決策人的指令提供所需信息,其所具有的人工智慧主要體現為“聽指令”高效行事,那麼ChatGPT則轉變為可以“出主意”的幫手。
一旦實現“聽指令”向“出主意”的決定性飛躍,就可以向“擔主角”的方向發展。憑藉其強大的數據處理能力,在與人的信息交換中,ChatGPT所出的“主意”,例如咨詢意見、設計方案、客戶溝通、文稿創作等,可不斷提高這些工作的質量。在任何特定領域,ChatGPT所提供的“主意”如果成為富有建設性的意見,且難有更高水平的方案替代,那麼ChatGPT實際上就具備了一定的決策功能。“幫手”不僅可以出主意,而且能夠拿“主見”。
這樣,引入了ChatGPT的產業及職業行為就有可能發生實質性變化,發生職能轉換。智能機器人的主動性將更強。其操控者則“坐享其成”,似乎可以進入美好的舒適境界,讓生活變得更加便捷。
而當ChatGPT有了很強的主動性,就可以因變應變,對外部變化作出積極響應。這樣,人工智慧技術就發展成為具有主動功能的人工智慧體,從而為經濟發展註入新動能、增添新活力。
此時,生產會越來越多地具備人工智慧體形態的行為主體。這類新形態的行為主體,遵循新的組織行為規則,其權責邊界和供求關係都將產生一系列新現象、新問題。人工智慧體創造各種“主意”,使用大量來源廣泛的知識資源,那麼這些“主意”所涉及的知識產權如何界定?其行為表現及後果與相關自然人法人之間的法律責任如何確定?這些問題都會成為值得關註的焦點。
例如,如果醫院門診的大多數功能,像掛號候診、檢查檢驗、病情診斷、醫囑處方等都可以由人工智慧體承擔,那主診醫生與人工智慧體的職能劃分和權責關係如何界定?特別是人工智慧體如果達到診斷差錯率顯著地低於主診醫生誤診率的水平,那處方權應歸誰?在更多的行業都將發生類似現象。對此,須有新的規則來維護新的秩序。
ChatGPT在技術上激發和導致人工智慧體的主動化和主體化,各類產業和職業形態就有望朝著軟體技術和硬體技術深度融合的方向發展。在許多領域,人工智慧體不僅“出主意”“拿主見”,而且要“言必行”“行必果”。例如,如果不滿足於僅僅跟ChatGPT泛泛聊天談飲食,要求人工智慧體建議最合適的食譜,而且能夠烹調供食,那麼軟體和硬體的融合就可能成為餐飲和家政等產業新的發展方向。
可以預見,未來大多數產業的發展都將融入人工智慧技術。以硬體設備為主體的產業,例如製造業、採掘業、基礎設施等,將更多加入人工智慧軟體系統;以軟體和人力為主的產業,比如各類服務業將更多加入人工智慧設備來替代人工。這些產業新形態的出現,自然是不難預見的前景,人們的生活將因之而變。
ChatGPT研究的五個重點[16]
2023年2月3日,荷蘭研究人員Eva A. M. van Dis等人在《Nature》發表關於ChatGPT的觀點,認為ChatGPT是一個大型語言模型,作為一個機器學習系統,可以從數據中自主學習,在對大量文本數據集進行訓練後,可以生成複雜且看似智能的寫作。同時表示這種類型的人工智慧技術將對研究人員的工作方式產生巨大影響,並且使用這種技術是不可避免的,禁止這種技術的使用是行不通的,應該關註的是如何更好的使用,因此提出對ChatGPT研究的5個重點。
1.堅持人工驗證
使用ChatGPT的研究人員有被虛假或有偏見的信息誤導的風險,並把這些信息融入到他們的思想和論文中,因此研究人員需要保持警惕。由專家推動的事實核查和核查進程將是必不可少的,高質量的期刊也可能決定加入人工驗證步驟,甚至禁止使用這種技術的某些應用程式。
2.制定問責制度
為了防止人類對自動化的偏見和對自動化系統的過度依賴,強調問責制的重要性將變得更加關鍵。研究界和出版商應該研究出如何以誠信、透明和誠實的方式使用ChatGPT。研究論文中的作者貢獻聲明和致謝應清楚而具體地說明作者是否以及在多大程度上使用了ChatGPT等人工智慧技術來準備他們的手稿和分析。這將提醒編輯和審稿人更仔細地審查手稿,以發現潛在的偏見、不准確和不適當的來源信用。
3.投資真正開放的大型語言模型
研究界最緊迫的問題之一是缺乏透明度。ChatGPT及其前身的基礎訓練集尚未公開,科技公司可能會隱瞞其會話式AI的內部工作原理。這有悖於科學透明化和開放的趨勢,也使得人們很難發現聊天機器人知識的來源或差距。為了應對這種不透明,應該優先考慮開源人工智慧技術的開發和實施。非商業組織,如大學,通常缺乏所需的計算和財政資源,以跟上大型語言模型發展的快速步伐。因此,我們提倡科學資助組織、大學、非政府組織、政府研究機構和聯合國等組織對獨立的非營利項目進行大量投資。這將有助於開發先進的開源、透明和民主控制的人工智慧技術。
4.接受人工智慧的益處
在人工智慧聊天機器人的幫助下,研究人員的研究結果就可以更快地發表,他們有更多的時間專註於新的實驗設計,這可能會顯著加速創新,並可能導致許多學科的突破。因此這項技術具有巨大的潛力,前提是目前與偏見、出處和不准確性相關的初期問題得到解決。因此需要檢查和提高大型語言模型的有效性和可靠性,以便研究人員知道如何在具體的研究實踐中明智地使用該技術。
5.擴大辯論範圍
鑒於人工智慧的顛覆性潛力,研究界需要組織一場緊急而廣泛的辯論。首先,建議每個研究小組立即召開會議,討論並自己嘗試ChatGPT。在這個早期階段,在沒有任何外部規則的情況下,負責任的小組領導和教師決定如何誠實、正直和透明地使用它,並就一些參與規則達成一致是很重要的。第二,呼籲立即召開一個關於開發和負責任地使用大型語言模型進行研究的國際論壇,邀請包括不同學科的科學家、科技公司、大型研究資助者、科學院、出版商、非政府組織以及隱私和法律專家,為所有相關各方提出快速、具體的建議和政策。
- 2022年年12月,埃隆·馬斯克曾公開表示ChatGPT“好得嚇人”(scary good),並認為強大到危險的人工智慧已經離我們不遠。微軟聯合創始人比爾·蓋茨接受媒體採訪時表示:“ChatGPT將改變我們的世界。”[1]
- 一項調查顯示,截止2023年1月,美國89%的大學生都是用ChatGPT做作業[17]。
- 2023年2月10日,比爾·蓋茨在接受德國媒體採訪時表示,聊天機器人ChatGPT可以對用戶查詢做出驚人的類似人類的反應,其重要性不亞於互聯網的發明。“到目前為止,人工智慧可以讀寫,但無法理解內容。像ChatGPT這樣的新程式將通過幫助開收據或寫郵件,提高辦公效率。這將改變我們的世界。”蓋茨說道。ChatGPT的“聰明”,也讓不少人開始擔憂,未來也許將有越來越多的職業被人工智慧取代。對此,蓋茨卻認為,人工智慧不會產生如此威脅,“教師不會減少,醫生也不會減少。”談及未來哪些行業將受到最大影響時,蓋茨表示,隨著機器人變得更加智能,人們主要需要關註進行體力操作的藍領工作。“正在發生的情況是,在工廠內部,機器人正變得更好,我們可以讓藍領的工作效率更高。”但在蓋茨看來,這並不意味著人將被機器全面取代。“就像AI可以幫助老師完成他們的工作一樣,我認為我們不會減少老師數量,但是AI可以幫助那些老師,我也不認為我們會減少醫生的數量,但AI可以幫助他們減少超負荷的工作並做得更好。”[19]
- 2023年2月,紐約市和西雅圖市的公立學校系統,以及紐約大學等高校的校內設備和區域網已經全面禁止了ChatGPT的使用。一名來自普林斯頓大學的電腦系大四學生甚至研究出了一款名為GPTZero的反作弊軟體,只需輸入學生提交的作業內容,便可鑒別出是否由ChatGPT代勞。從1月3日上線至今,全美已有40個州超過23000名教師註冊了這一網站。[7]
- 李開復2023年2月13日微博:“後ChatGPT時代”如果你從事的工作不太能打又該怎麼辦呢?彆著急,在《AI未來進行式》一書中,我通過故事和講解給出了三大生存攻略,在英文簡稱三個R:Relearn二次學習,Recalibrate 二次定義,Renaissance 二次復興。願這3個法則助你打贏ChatGPT。ChatGPT引發的“人類末日論”喧囂塵上,我認為,AI不僅是科技進步的產物,更是幫助人類進步發展、完善自我的利器。回顧人類歷史,過往的幾次工業革命在推動人類社會進步的同時,也曾在各自的時代被不同程度地異化為“電車難題”。而歷次工業革命的最終成果也告訴了我們“電車難題”的最佳答案:技術是中性的,它的用途完全取決於使用者自身。我們一方面需要讓大眾更瞭解AI帶來的短期陣痛和長期效益;另一方面我們更需要共同努力,未雨綢繆積極應對。只有這樣,我們才能在擁抱ChatGPT等AI技術進步的過程中,逐漸培養出負責任和嚴謹的態度,讓AI真正地“Tech for Good ”造福人類。
- 2023年2月,京東集團副總裁何曉冬接受媒體採訪時表示:“ChatGPT是第一款真正意義上的人工智慧原生的產品,就像第一款iPhone,一齣來就展現出高完整度,高體驗性,高平臺性。”[1]
- 2023年2月7日,百度方面透露,該公司“類ChatGPT應用”將在3月份完成內測,該項目名稱已被確定為“文心一言”(ERNIE Bot)。作為國內首家透露“類ChatGPT”項目的公司,百度方面還表示,目前文心一言在做上線前的衝刺。按照谷歌和微軟節奏,文心一言開放內測還有可能提前[20]。
- 2023年2月8日,阿裡表示,阿裡版聊天機器人ChatGPT正在研發中,目前處於內測階段。釘釘方面也表示,阿裡版本的ChatGPT的對話機器人將和釘釘深度結合。360、京東、網易有道陸續表態,已開發或計劃開發類ChatGPT相關產品[21]。科大訊飛在投資者互動平臺表示,類ChatGPT技術今年5月將率先落地AI學習機產品[22]。
- 在ChatGPT上線公測後,據《紐約時報》報道,谷歌公司內部立即拉響“紅色警報”。谷歌CEO皮查伊親自主持召開多場應對會議,甚至請回谷歌的兩位聯合創始人拉里·佩奇和謝爾蓋·布林共商對策。2023年2月8日,就在“必應”加持ChatGPT的同一天,谷歌火速將仍處於內部測試階段的“預訓練語言生成模型”巴德(BARD)進行線上和線下的產品展示。但沒想到,巴德卻連連出錯。在谷歌發佈的視頻演示中,一位用戶問巴德:“我可以告訴我9歲的孩子關於詹姆斯·韋伯太空望遠鏡的哪些新發現?”巴德給出的一個回答是這樣寫的:“JWST(詹姆斯·韋伯空間望遠鏡)拍攝了太陽系外行星的第一張照片。”然而,這是一個低級的事實錯誤。根據美國航空航天局的說法,第一張顯示系外行星的照片實際上是由歐洲南方天文臺(VLT)的甚大望遠鏡在2004年拍攝的。同日,在巴黎舉行的巴德演示會再次出現“意外”。谷歌搜索引擎部負責人里德(LIZREID)在現場展示巴德的“多項搜索”功能時居然弄丟了用來做演示的手機。谷歌“巴德”接連出糗後,2月8日當天,谷歌母公司Alphabet的股價暴跌7.7%,市值蒸發1000億美元。[7]
- 2023年2月20日,從復旦大學自然語言處理實驗室獲悉,國內第一個對話式大型語言模型 Moss 已由邱錫鵬教授團隊發佈至公開平臺,邀公眾參與內測。如今,Moss 成為國內首個公開亮相的類 ChatGPT 語言模型,「端到端」走通了大語言模型的開發全程。復旦團隊則採用不同的技術路線,通過讓 Moss 和人類以及其他對話模型都進行交互,顯著提升了學習效率和研發效率,短時間內就高效完成了對話能力訓練。[23]。
- ↑ 1.0 1.1 1.2 1.3 爆火全網的ChatGPT,這些問題您可能想知道.光明網.2023-02-13
- ↑ 最強聊天機器人ChatGPT面世,AI又來搶飯碗了?.每日經濟新聞.2022-12-12
- ↑ ChatGPT寫研報像模像樣 取代“金融民工”道阻且長.證券時報.2023-02-13
- ↑ 4.0 4.1 5天註冊用戶超100萬,ChatGPT讓谷歌百度坐不住了.新浪財經.2023-02-03
- ↑ 微軟將推出AI版必應搜索 採用ChatGPT爆紅技術.鳳凰網科技.2023-01-04
- ↑ 亞馬遜已在多種工作職能中使用ChatGPT.36氪.2023-01-28
- ↑ 7.0 7.1 7.2 世界周刊|ChatGPT火出圈.極目新聞.2023-02-13
- ↑ ChatGPT開始商業變現:20美元包月,微軟谷歌百度都在“捲”.界面新聞.2023-2-2
- ↑ “新武器”加持? ChatGPT 恐將讓黑客的破壞行為升級.IT之家.2023-2-3
- ↑ 史上最快!爆紅AI聊天程式ChatGPT,月活躍用戶數兩個月突破1億大關.央視財經.2023-02-03
- ↑ ChatGPT給總統寫演講稿 世界首位使用AI撰稿的領導人是他.鳳凰網科技.2023-02-04
- ↑ 微軟宣佈推出由ChatGPT支持的最新版本搜索引擎必應.新京報.2023-02-08
- ↑ 硬剛谷歌,微軟正式發佈“ChatGPT版Bing”,打響新一輪AI之戰科技巨頭輪番發起AI閃電戰.界面新聞.2023-2-8
- ↑ 14.0 14.1 新聞分析:ChatGPT,變革與風險.光明網.2023-02-13
- ↑ ChatGPT能帶來新產業革命嗎.中國經濟網.2023-02-13
- ↑ 《Nature》發文指出ChatGPT研究的五個重點.上海師範大學國際教師教育中心.2023-02-20
- ↑ 斯坦福團隊推出DetectGPT,學生用AI寫論文要犯難了.澎湃新聞.2023-01-30
- ↑ 巴黎政治大學禁用ChatGPT以防抄襲,使用者或面臨開除處分.界面快報.2023-01-28
- ↑ 比爾·蓋茨談ChatGPT:將改變世界,但不會取代人類工作.天目新聞.2023-02-13
- ↑ 百度版ChatGPT來了,AI競賽中國勝算幾何?.觀察者網.2023-02-07
- ↑ 國內巨頭類ChatGPT佈局揭開面紗,百度阿裡京東誰能拔頭籌.澎湃新聞.2023-02-09
- ↑ 科大訊飛:類ChatGPT技術今年5月將率先落地AI學習機產品.上海證券報.2023-02-09
- ↑ 復旦團隊發佈國內首個類ChatGPT模型MOSS,邀公眾參與內測.上觀新聞.2023-02-20
評論(共4條)
ChatGPT的回答更像是市場一致預期的精準表達,難免囿於“重覆正確的廢話”之嫌
“效率和正確”是提高了,但是離“人類的多樣性選擇”——包括“自然的錯誤”和“錯誤生成的世界”,“怡然自得”的“自然行為”和“社會行為”自然生成,卻“愈行愈遠”……——人類最終會在“機器的標準化場景下”看到、聽到、和行動到一切……欲生欲死、無法擺脫、不能自拔。
“效率和正確”是提高了,但是離“人類的多樣性”選擇——包括“自然的錯誤”和“錯誤生成的世界”,“怡然自得”的“自然行為和社會行為”,自然生成的結果,卻“愈行愈遠”……
ChatGPT的回答更像是市場一致預期的精準表達,難免囿於“重覆正確的廢話”之嫌