企業(yè)加快智能化轉型 大模型“畫龍”小數(shù)據(jù)“點睛”

來源:科技日報

大模型“畫龍”,小數(shù)據(jù)“點睛”

企業(yè)加快智能化轉型

◎本報記者 翟冬冬

小數(shù)據(jù)、優(yōu)質數(shù)據(jù)應用有其前提,即需要在大的基礎模型(預訓練模型)之上,通過小數(shù)據(jù)進行模型的微調,使模型更加精準地服務具體應用場景。從這個角度來講,小數(shù)據(jù)將在未來基礎模型完成下游任務時,起到關鍵的作用。

王金橋

中國科學院自動化研究所研究員

如今大數(shù)據(jù)已經(jīng)成為人工智能的“標配”。在訓練人工智能模型的過程中,如果想讓其變得更加聰明,大量的、多樣性的數(shù)據(jù)必不可少。但近日,著名人工智能學者吳恩達在展望人工智能下一個10年的發(fā)展方向時,表達了不同的觀點。他認為,小數(shù)據(jù)、優(yōu)質數(shù)據(jù)的應用或是未來趨勢。

中國科學院自動化研究所研究員王金橋表示,小數(shù)據(jù)、優(yōu)質數(shù)據(jù)應用有其前提,即需要在大的基礎模型(預訓練模型)之上,通過小數(shù)據(jù)進行模型的微調,使模型更加精準地服務具體應用場景。從這個角度來講,小數(shù)據(jù)將在未來基礎模型完成下游任務時,起到關鍵的作用。

多數(shù)應用場景難以獲取高質量大數(shù)據(jù)

算法(模型)、算力和數(shù)據(jù)可以說已經(jīng)成為推動人工智能發(fā)展的三大要素,其中數(shù)據(jù)尤為重要。在眾多互聯(lián)消費場景中,我們常常被精準的人工智能推送“擊中”。通過對消費者消費習慣、購物偏好的分析,平臺系統(tǒng)可以對消費者的潛在需求作出判斷并加以引導,而這一切的基礎,是基于大量的、豐富的數(shù)據(jù)樣本。利用大數(shù)據(jù),平臺構建出了適用于該領域的專用模型,實現(xiàn)精準推送。

這些體驗或許是普通消費者對于大數(shù)據(jù)和人工智能最直接的印象之一。吳恩達在采訪中也表示,在過去10年里,面向消費者的企業(yè)由于擁有大量用戶群(有時甚至高達數(shù)十億),因此獲得了非常大的數(shù)據(jù)集使得人工智能可以開展深度學習,并給企業(yè)帶來了不少經(jīng)濟效益。但他同時強調,這種法則并不適用于其他行業(yè)。其原因在于,并不是所有場景都能產(chǎn)生豐富的大數(shù)據(jù)樣本。

實際上,“在生活中,百分之八九十場景的問題都屬于小樣本問題?!蓖踅饦虮硎荆芏鄳脠鼍爸?,由于訓練樣本難以獲取,因此只有極少量數(shù)據(jù),缺陷檢測就是其中的典型案例。缺陷檢測,即采用機器視覺技術等,對某種特定缺陷進行檢測和識別。這種檢測在航天航空、鐵路交通、智能汽車等眾多領域都有應用。由于在實際的生產(chǎn)生活中,存在瑕疵的產(chǎn)品總是少數(shù),所以缺陷檢測的訓練樣本數(shù)量很少。

而即使對于樣本豐富的場景,也存在訓練數(shù)據(jù)標注愈發(fā)困難的問題。王金橋介紹,目前人工智能所使用的訓練數(shù)據(jù),還是以人工標注為主,而在海量數(shù)據(jù)面前,人工標注往往需要行業(yè)經(jīng)驗,一般人難以對標注區(qū)域進行識別。此外,針對每個應用需求都需要人工智能專家設計算法模型,模型越多,開發(fā)成本也會持續(xù)增加。

吳恩達也表示,在消費互聯(lián)網(wǎng)行業(yè)中,我們只需訓練少數(shù)機器學習模型就能服務10億用戶。然而在制造業(yè)中,有1萬家制造商就要搭建1萬個定制模型。而且要做到這點往往需要大量的人工智能專家。

從目前的行業(yè)發(fā)展趨勢來看,基礎模型或許是解決上述問題的一個方向。

以基礎模型為“基座”用小數(shù)據(jù)微調

“近些年,行業(yè)開始重視研發(fā)基礎模型或者說是通用型模型來解決上述問題?!蓖踅饦蛘f,先用大量數(shù)據(jù)預訓練一個模型。這些模型在預訓練中,見多識廣是首要任務。訓練中,模型會見識到該領域各式各樣的數(shù)據(jù),增長見識,以應對今后出現(xiàn)的各種情況。之后再在下游任務中利用具體的場景數(shù)據(jù)進行微調。

如自然語言處理(NLP)領域的大模型,如果要利用它完成如對話、問答等下游任務,只需要使用這個下游任務中數(shù)量很小的數(shù)據(jù),在這個大模型之上進行微調,就能達到不錯的效果。一些研究成果也表明,只需要原來建立專屬模型5%—10%的數(shù)據(jù)樣本用于大模型的數(shù)據(jù)微調,就能得到和專屬模型一樣的精度。

“從大模型轉向小模型,實現(xiàn)一個模型做多個任務,可以說是目前行業(yè)發(fā)展中的一個轉變?!蓖踅饦蛘f,這樣不僅降低了開發(fā)難度,還大大減少了開發(fā)成本。以前,每個算法都需要一個深度學習專家去設計和訓練,現(xiàn)在只需要在大模型之下進行微調,模型的設計和架構也變得相對簡單。中小型企業(yè)只需要在大模型上,自己上傳數(shù)據(jù)就可以完成。

此外,利用這種方法,模型的誤報率也會減少?;A模型見過豐富多彩的數(shù)據(jù)和場景,在處理具體任務的時候就具備了海量知識儲備,有更充足的準備去應對具體的小場景應用。

不過吳恩達在訪談中也表示,預訓練只是要解決難題的一小部分,更大的難題是提供一個工具讓使用者能夠選擇正確的數(shù)據(jù)用于微調,并用一致的方式對數(shù)據(jù)進行標記。面對大數(shù)據(jù)集的應用時,開發(fā)者的通常反應都是如果數(shù)據(jù)有噪音也沒關系,所有數(shù)據(jù)照單全收,算法會對其進行平均。但是,如果研究人員能夠開發(fā)出用來標記出數(shù)據(jù)不一致地方的工具,為使用者提供一種非常有針對性的方法來提高數(shù)據(jù)質量,那這將是獲得高性能系統(tǒng)的更有效的方法。

多模態(tài)或是大模型未來發(fā)展方向

基礎模型作為生產(chǎn)眾多小模型的“基座”,性能尤為重要。其認知能力越接近人類,在此之上產(chǎn)生的小模型性能也將越優(yōu)異。

在探索外部環(huán)境的時候,人類具備視覺、聽覺、觸覺等多種認知手段,并通過語言對話等形式實現(xiàn)互動交流。其中視覺得到的信息約占70%,聽覺、觸覺等獲得的信息約占30%。“同樣,要使得大模型的性能更加優(yōu)秀,更趨近人類的認知能力,就涉及到訓練中的數(shù)據(jù)融合問題?!蓖踅饦蛑赋觯覀兪熘恼Z言生成模型GPT-3,能夠生成流暢自然的文本,并完成問答、翻譯、創(chuàng)作小說等一系列NLP任務,甚至可以進行簡單的算術運算。但其和外界交互的主要方式還是進行文本交流,缺乏圖像、視頻等多模態(tài)融合。

每一種信息的來源或者形式,都可以稱為一種模態(tài)。如人有觸覺、聽覺、視覺、嗅覺;信息的媒介有語音、視頻、文字等。人的認知模型可以說是一個多模態(tài)的集合。

要讓基礎模型的預訓練更接近人類的認知模型,也需要進行多模態(tài)融合。即讓模型通過機器學習的方法實現(xiàn)處理和理解多源模態(tài)信息的能力,如圖像、視頻、音頻、語義之間的多模態(tài)學習。多模態(tài)預訓練模型被廣泛認為是從限定領域的弱人工智能邁向通用人工智能路徑的探索。

“這一兩年,大模型的數(shù)量呈現(xiàn)爆發(fā)式增長,且有從單一模態(tài)模型轉向多模態(tài)模型的趨勢?!蓖踅饦蛘f,具備了多模態(tài)能力的基礎模型,在具體應用場景中健壯性更好,在異常和危險情況下系統(tǒng)的生存能力更強,今后多模態(tài)基礎模型或將成為未來基礎模型發(fā)展的一個重要方向。

標簽:

推薦

財富更多》

動態(tài)更多》

熱點