C114訊 5月9日消息(岳明)在今天召開的“2023 云網(wǎng)智聯(lián)大會”上,中國電信集團科技委主任、CCSA TC610推委會主席韋樂平作了題為《網(wǎng)絡(luò)的開放和封閉的思考》的主題演講。
在發(fā)言中,韋樂平就ChatGPT這一現(xiàn)象級產(chǎn)品的產(chǎn)業(yè)意義、技術(shù)核心和局限、潛在風險,以及構(gòu)筑電信專業(yè)GPT的必要性等話題暢談了他的理解。
韋樂平指出,ChatGPT開創(chuàng)人工智能新時代,最新推出的GPT-4不僅能聊天,而且已具備多模態(tài)能力和自主學(xué)習、自我進化能力,成為一款智能決策和創(chuàng)作系統(tǒng)。GPT-4不僅在語言,在數(shù)學(xué)、音樂、編程、圖片、醫(yī)學(xué)、法律等很多領(lǐng)域表現(xiàn)非常出色,而且具備了綜合能力,正向通用人工智能方向發(fā)展,成為全人類共享的超級數(shù)字大腦。同時,其自主學(xué)習思考、自我更新進化能力也給人類帶來了不可預(yù)測、難以控制的深遠影響。
GPT-4引入了知識和經(jīng)驗,但是主要還是靠蠻力計算,算力成本和功耗很高,對數(shù)據(jù)規(guī)模和數(shù)據(jù)質(zhì)量要求也很高,時效性、通用性不強,推理能力不夠強,訓(xùn)練結(jié)果不可預(yù)測!拔覀人認為它屬于2.5代AI,就是數(shù)據(jù)驅(qū)動和第三代AI之間。”韋樂平表示。
技術(shù)核心和局限方面,最重要是基于人類反饋的強化學(xué)習能力,使得模型訓(xùn)練與推理結(jié)果與人類常識、認知、需求、價值觀一致,還能自己編創(chuàng)新知識,正成為不斷進化的數(shù)字大腦。技術(shù)局限就是需要海量的高質(zhì)量的語料庫訓(xùn)練,才能使模型擬合真實世界,對算力、算法和數(shù)據(jù)要求很高,目前訓(xùn)練模型已經(jīng)1750億,需要1萬個A100的顯卡,不僅昂貴而且功耗也非常。
在談到ChatGPT風險時,韋樂平指出,它潛在的危險,第一個不可預(yù)測和難以控制,算法黑箱導(dǎo)致不可預(yù)測的信任危機和潛在風險;其次是信息安全和隱私暴露,高度擬人的訓(xùn)練結(jié)果強化了假信息的逼真度和快速傳播,錯誤的結(jié)果會導(dǎo)致人類做出錯誤決策,引發(fā)社會動亂;第三,版權(quán)體系崩塌,GPT無償?shù)膶W(xué)習和使用了大量傳媒的內(nèi)容而不付費;普通腦力勞動者的替代,造成社會的不安定。
韋樂平表示,作為基礎(chǔ)大模型,GPT盡管威力巨大,但是耗資巨大、訓(xùn)練耗時過長,沒有幾個企業(yè)負擔得起;同時,GPT主要基于互聯(lián)網(wǎng)現(xiàn)有的公開可用的開放數(shù)據(jù)進行訓(xùn)練,不僅缺少電信專業(yè)的非開放專業(yè)數(shù)據(jù),而且實時性和準確性不足以全面支撐瞬息萬變的電信網(wǎng)絡(luò)和業(yè)務(wù)。
“電信企業(yè)可能需要在基礎(chǔ)大模型GPT框架上開發(fā)一個規(guī)模沒有那么大、成本可控、專業(yè)性更強,更有利于人工智能廣泛應(yīng)用的大模型,即電信專業(yè)GPT。此方面,電信企業(yè)已具備較好基礎(chǔ),包括多元化基礎(chǔ)算力,較高質(zhì)量的海量數(shù)據(jù),同時積累了大量行業(yè)應(yīng)用的算法可用。僅以中國電信為例,就積累了超過6500個算法!