趨向1:大型語言模型(LLMs),定義了下一波交互AI。
AI語言模型建立在自然語言處理技術(shù)和算法的基礎(chǔ)上。例如,當(dāng)某個句子是半部分時,該模型將根據(jù)以前記錄的事例,推斷該句子后面的幾個詞?偠灾,就是總結(jié)文本信息,甚至從純文本生成視覺圖。
LLM(LLMs)訓(xùn)練對象是對包含大量數(shù)據(jù)的大規(guī)模數(shù)據(jù)集。比如Google的BERT和OpenAI的GPT-2和GPT-3,都是LLMs的典型例子。GPT-3中大約有1750億個參數(shù),它們用來訓(xùn)練570兆字節(jié)的文本。從簡單的文章到復(fù)雜的財務(wù)模型,這些模型都能產(chǎn)生結(jié)果。如今,包括OpenAI、HuggingFace、Cohere、AI21Labs和AI12在內(nèi)的人工智能創(chuàng)業(yè)公司都在為LLMs培養(yǎng)出數(shù)十億參數(shù)的模型。
一家名為Naver的韓國公司宣布,他們開發(fā)了最全面的基于人工智能的語言模型HyperCLOVA,一種類似GPT-3的韓語模式。不像上面提到的模式,華為的PanGu-Alpha和百度的Ernie3.0Titan都是經(jīng)過電子書、百科全書和社交媒體的中文數(shù)據(jù)集培訓(xùn)而成。
2022年,我們將看到大型語言模型成為下一代交互人工智能工具的基礎(chǔ)模型。
趨向2:多模式人工智能的興起。
模型(Modality)是德國理學(xué)家赫爾姆霍茨提出的一個生物學(xué)概念,也就是生物憑經(jīng)驗(yàn)接受信息的通道,例如,人類具有視覺、聽覺、觸覺、味覺和嗅覺模式。多模式是指各種感覺的融合,而多模式交互則是指人通過聲音、肢體語言、信息載體(文字、圖片、音頻、視頻)、環(huán)境等多個通道與計算機(jī)進(jìn)行交流,充分模擬人與人之間的交互方式。
常規(guī)深度學(xué)習(xí)算法主要關(guān)注從單個數(shù)據(jù)源對模型進(jìn)行訓(xùn)練。比如,計算機(jī)視覺模型是對一組圖像進(jìn)行訓(xùn)練,NLP模型用于對文本內(nèi)容進(jìn)行訓(xùn)練,語音處理包括生成聲學(xué)模型、喚醒詞檢測和噪聲消除。這類機(jī)器學(xué)習(xí)涉及單模式人工智能,并且結(jié)果全部映射為單個數(shù)據(jù)類型。同時,多模式人工智能是計算機(jī)視覺和交互人工智能智能模型的最終融合,它為計算器提供了更接近人類感知的場景。
最新的多模式人工智能的例子是OpenAI的DALL-E,它以藝術(shù)家Salvador-Dali和PicksWale的諧音命名。可根據(jù)文字描述產(chǎn)生相應(yīng)的圖像。舉例來說,當(dāng)將文字描述為“一個圓環(huán)形時鐘”發(fā)送給該模型時,它就能產(chǎn)生圖像。
多任務(wù)統(tǒng)一模型(MUM)是谷歌多模式人工智能的又一實(shí)例。該方法通過從75種不同語言提取的上下文信息,對搜索結(jié)果進(jìn)行優(yōu)先排序,以改善用戶的搜索體驗(yàn)。MUM使用T5的文本到文本框架,比在BERT上流行的基于轉(zhuǎn)換器的自然語言處理模型要強(qiáng)1000倍。
通過簡單的文字輸入,英偉達(dá)的GauGAN2模型可以產(chǎn)生像照片一樣逼真的圖片。該方法將分割映射與單個模型相結(jié)合,實(shí)現(xiàn)內(nèi)繪、文到圖的生成,使之成為一種功能強(qiáng)大的多模式工具,能夠通過文字和圖片的混合創(chuàng)造出真實(shí)的藝術(shù)。
不久的將來,我們將會看到計算機(jī)視覺、語言和語音模式的融合,它使人工智能更加豐富和真實(shí)。
趨向3:簡化和優(yōu)化MLOps。
是一種將機(jī)器學(xué)習(xí)應(yīng)用于工業(yè)生產(chǎn)的實(shí)踐,是機(jī)器學(xué)習(xí)和DevOPs在軟件領(lǐng)域結(jié)合起來的一種實(shí)踐,因此它在很多方面類似于2012DevOps。當(dāng)DevOps于2012年面世時,很多企業(yè)已經(jīng)認(rèn)識到它的價值,但他們實(shí)施DevOps是一件難事,工具鏈?zhǔn)謴?fù)雜,生態(tài)系統(tǒng)也不完善。相對于MLOps而言,MLOps更復(fù)雜,它包含了安裝、配置培訓(xùn)、推理架構(gòu)、配置特征存儲器、配置模型注冊表、監(jiān)視模型衰減、檢測模型漂移等相關(guān)內(nèi)容。它巨大的軟件包也使得MLOps的部署比DevOps更加困難。
MLOps是加入基于云計算的ML平臺的一個概念,包括AmazonSageMaker、AzureML和谷歌的VertexAI。但是,這些功能并不能同時用于混合和邊緣計算這兩種環(huán)境。所以,監(jiān)控邊緣計算的環(huán)境模型已經(jīng)成為企業(yè)面臨的一大挑戰(zhàn)。當(dāng)我們使用計算機(jī)視覺系統(tǒng)和交互人工智能系統(tǒng)時,建立用于監(jiān)控邊緣計算的模型將變得更具挑戰(zhàn)性。
由于像Kubeflow和MLflow這樣的開放源碼項(xiàng)目逐漸成熟,MLOps實(shí)際上已經(jīng)可以輕松獲取了。我們可能會發(fā)現(xiàn),在未來幾年,跨越云計算和邊緣計算環(huán)境,采用了一種簡化的MLOps方法。
趨向4:AI驅(qū)動開發(fā)者生產(chǎn)率。
將來,人工智能幾乎將影響IT產(chǎn)業(yè)的方方面面,包括編程和開發(fā)。近幾年來,我們曾見過一些工具,如亞馬遜代碼大師,它可以在開發(fā)者編程時,為他們提供智能建議,從而提高代碼質(zhì)量,并且識別應(yīng)用程序中最重要的那一行代碼。最近, GithubCopilot第一次以“人工智能配對程序員”的身份幫助開發(fā)者寫出有效的代碼。Salesforce的研究小組還發(fā)布了CodeT5,一項(xiàng)開放源碼項(xiàng)目,可以幫助Apex開發(fā)者在AI驅(qū)動下編寫代碼。之前的Codata,Tabnine已經(jīng)完全將智能代碼引入主流開發(fā)環(huán)境。Ponicode還是一種AI驅(qū)動的工具,它提供了功能創(chuàng)建、可視化和運(yùn)行單元測試的快捷方式。
大規(guī)模語言模型(LLMs)的出現(xiàn)以及開放源碼更加廣泛的可獲得性,使得IDE廠商得以構(gòu)建基于它的智能代碼生成與分析系統(tǒng)。
更進(jìn)一步說,可以通過內(nèi)嵌注解生成高質(zhì)量、緊湊代碼的工具已經(jīng)成為期待。他們甚至能把一種語言編寫的代碼翻譯成另一種語言,通過將傳統(tǒng)代碼轉(zhuǎn)換成現(xiàn)代語言,使應(yīng)用程序現(xiàn)代化。
趨向五:云平臺垂直化AI新解決方案。
包括亞馬遜,谷歌和微軟在內(nèi)的全球領(lǐng)先的人工智能供應(yīng)商正在把研發(fā)成果商業(yè)化。它們通過自己的云平臺提供主機(jī)服務(wù),并安裝了具有人工智能加速器和預(yù)訓(xùn)模型的硬件設(shè)備。
亞馬遜連接和谷歌聯(lián)絡(luò)中心AI就是垂直整合的典型例子。這兩家公司都利用機(jī)器學(xué)習(xí)的能力來實(shí)現(xiàn)智能路由,由機(jī)器人驅(qū)動的客戶服務(wù)會話,以及自動為聯(lián)絡(luò)中心代理提供幫助。AWSPanorama可與已有IP攝像機(jī)相連,以執(zhí)行基于計算機(jī)視覺的推理。用戶可以在他們的云平臺中使用新的模式。
然后把他們部署到全景設(shè)備的邊緣。AzurePercept也用類似的方法來提供邊緣計算視覺模型和交互人工智能。在Azure上,微軟建立了Percept,基于現(xiàn)有的物聯(lián)網(wǎng),人工智能,邊緣計算服務(wù)。 注:尊重原創(chuàng)文章,轉(zhuǎn)載請注明出處和鏈接 http://m.universityresearchassociates.com/news-id-19496.html 違者必究!部分文章來源于網(wǎng)絡(luò)由培訓(xùn)無憂網(wǎng)編輯部人員整理發(fā)布,內(nèi)容真實(shí)性請自行核實(shí)或聯(lián)系我們,了解更多相關(guān)資訊請關(guān)注人工智能頻道查看更多,了解相關(guān)專業(yè)課程信息您可在線咨詢也可免費(fèi)申請試課。關(guān)注官方微信了解更多:150 3333 6050