展會信息港展會大全

“AI開發者日”觀察:如何實現AI技術可信賴?
來源:互聯網   發布日期:2022-09-06 19:34:00   瀏覽:16760次  

導讀:21世紀經濟報道記者 蔡姝越 上海報道 近年來,AI for Science預訓練新范式自監督學習計算機圖形學深度學習框架等關鍵詞,是AI開發者重點關注的幾個研究方向。 9月3日,由機器之心主辦的WAICAI開發者日論壇作為世界人工智能大會的重要分論壇之一,在張江科學...

21世紀經濟報道記者 蔡姝越 上海報道

近年來,“AI for Science”“預訓練新范式”“自監督學習”“計算機圖形學”“深度學習框架”等關鍵詞,是AI開發者重點關注的幾個研究方向。

9月3日,由機器之心主辦的“WAICAI開發者日”論壇作為世界人工智能大會的重要分論壇之一,在張江科學會堂正式拉開帷幕。據悉,“WAICAI開發者日”論壇是大會期間唯一一場面向 AI開發者和技術人員的活動,也是最受關注的人工智能技術論壇之一。

上海市經濟和信息化委員會總工程師張宏韜在論壇開幕式致辭中指出,人工智能是上海落實國家戰略部署重點發展的三大先導產業之一。“近年來,上海著力建設人工智能上海高地和世界級產業集群,已形成產業集聚、創新活躍、要素融通、開放共享的良好發展生態。AI開發者作為其中一項重要力量,鏈接了理論技術與應用實踐,是人工智能產業發展的加速器和主力軍。”他表示。

值得關注的是,多位專家學者在會議中分享了近期在研AI技術的最新進展,包括多模態AI技術、可控文本、AI技術與RPA技術的結合等。此外,如何在技術快速發展的過程中,實現AI“可信賴”,也是本次會議的關鍵議題之一。

多項AI在研技術取得最新進展

“多模態交互”技術是近期AI領域的關注重點之一。據悉,“模態”(Modality)是德國理學家赫爾姆霍茨提出的一種生物學概念,即生物憑借感知器官與經驗來接收信息的通道,如人類有視覺、聽覺、觸覺、味覺和嗅覺模態。而多模態交互與傳統的深度學習(Deep Learning)的不同點在于,用戶可以通過聲音、肢體語言、信息載體、環境等多個通道與計算機進行交流,充分模擬人與人之間的交互方式。

清華大學惠妍講席教授、銜遠科技創始人周伯文分享了清華協同交互智能研究中心目前的主要研究課題,即“智能體在于以人為中心的世界和環境交互的過程中,如何不斷地迭代和自我學習”。主要研究方向就包括多模態表征交互、推理等方面,而研究的核心則會圍繞“可信賴AI”進行設計。

上文中提到的多模態AI技術,目前主要存在三個發展趨勢。周伯文指出,多模態AI的第一個發展趨勢是越來越多的人在構建統一的、跨場景、多任務、多模態的技術原型。第二個發展趨勢是越來越多地采用自監督學習(Self-supervised learning)的方式,通過構建自監督任務,能夠提高多模態的表征能力,同時緩解了缺少大規模監督數據的挑戰。而第三個趨勢則在于多模態的表征跟知識的融合開始有更進一步的拓展,如何更精確、更自動化地生成大模型的知識和推理表征,將會是接下來的重點工作。

此外,也有與會專家分享了如何通過AI生成“可控文本”這一技術的最新進展。

瀾舟科技創始人兼CEO周明指出,用戶在使用AI生成文本時,時常會面臨詞不達意的情況,此時便需要設定一些可控參數來達到自己想要的效果,這便是生成“可控文本”的技術原理。“基于神經網絡的生成模型,目前我們已經構建了能夠接受垂直數據或知識的圖譜,并已開發了弱標注、學習數據構建、篇章結構建模、自動評測等技術,能夠支持用戶生成各種各樣的文本。”他說。

另一方面,AI技術在機器人流程自動化(以下簡稱“RPA”)領域的應用與落地,也是本次論壇的重要議題之一。

實在智能創始人兼CEO孫林君認為,AI技術興起后,在傳統的RPA領域中,有很多的地方可以與AI進行結合。比如與語音、OCR等技術的結合,這是簡單的加法。“RPA技術本身存在一些瓶頸,比如要去控制各種各樣的軟件時,首先要識別這些軟件中的要素,但是識別過程強依賴于操作系統底層。”他進一步指出,RPA技術能力的瓶頸和AI結合后,可以實現進一步的突破,并能真正泛化至所有行業上的軟件,成為普適性的自動化技術。

如何成為“可信賴AI”?

雖然近年來我國的AI技術進展頗豐,但目前仍存在著部分亟待克服的技術難點。

周伯文指出,“多模態理解”加“交互式學習”和以人為中心的設計模式,在未來的應用空間會越來越大,但是在發展過程中存在著一項較大的挑戰如何讓AI的理解和執行更可控,即如何讓AI真正變成“可信賴AI”?

他認為,可信賴AI在發展的過程中主要面臨著“魯棒性”和“公平無偏”兩項標準的挑戰。

“日常生活中,有三個領域的AI技術容易受到攻擊。一是在智能助手領域,可以通過在播放的音樂中插入噪音從而導致系統失控;二是在電商領域,僵尸用戶通過一些社交行為改變系統的推薦機制;三則是通過擾動少量文本攻擊感情分析系統。”周伯文舉例說明了AI技術經常面臨的三種攻擊類型。

而在社會認知公平無偏的層面,他指出,目前的AI技術仍廣泛存在著偏差的風險,尤其是在人臉識別和性別的默認問題中。“用戶的行為會影響數據,數據會影響算法,如果數據具有廣泛的代表性,那么算法就會出現偏差,隨著技術的迭代,這一偏差會不斷地放大,這就是人工智能落地發生的真實挑戰。”周伯文說。

而聚焦至AI技術中的機器學習(Machine Learning)領域,九章云極開源技術副總裁、D-Lab主任楊健則提到,AI的高度發展,最核心的貢獻便是來自機器學習。然而,機器學習隨著大量的應用和普及,在實操過程中也出現了瓶頸和短板,在實現可信賴AI這一目標的過程中也遇到了諸多難點。

首先是泛化能力不足。楊健指出,根據福布斯提供的相關數據,全球范圍機器學習的項目能夠真正投入生產的只有10%多一點,訓練不足、數據質量不達標、數據漂移等問題導致絕大部分項目最后無法投產。另一方面,可解釋性缺乏,導致機器學習目前難以讓用戶理解為什么會做出這些決策,從而難以取得用戶的信任,也成為了達到可信賴AI這一目標的障礙。此外,機器學習目前對決策任務的支持能力并不足夠,僅依靠對未來結果的預測很難提供有效的決策選項。

若要讓AI技術真正成為“可信賴AI”,又需要具體符合哪些條件?周伯文認為,可信賴AI需要具備6個原則和要素,即穩健性、可復制、可解釋、公平、價值對齊、負責任。

“以上提到的6個維度,背后本質上面臨的都是技術挑戰。但是AI一定具有社會屬性,這一點也會倒逼AI開發者思考技術進步。我相信目前存在的問題,將會通過未來技術的進步逐一解決。”他說。

贊助本站

人工智能實驗室
AiLab云推薦
展開
Copyright © 2010-2022 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態 | 免責聲明 | 隱私條款 | 工作機會 | 展會港 | 站長號
国产AV一区最新精品