繁中

新的人工智慧學習模型提高了手勢檢測性能和效率

OpenAI的GPT等通用人工智慧系統依賴大量訓練數據來提高模型的準確性和性能。研究或醫療人工智慧應用通常缺乏訓練數據和計算能力,可以利用旨在提高更專業場景中人工智慧輸出的效率、相關性和準確性的新模型。

大型預訓練語言模型(PLM)使用越來越大的數據集(如維基百科)來訓練和優化機器學習(ML)模型以執行特定任務。雖然ChatGPT等大型PLM的準確性和性能隨著時間的推移有所提高,但當大型數據集不可用或由於計算限制而無法使用時,大型PLM無法正常工作。

簡而言之,需要一種新的人工智慧解決方案來有效利用機器學習在研究、醫療或其他無法獲得大量信息來充分訓練現有人工智慧模型的應用中。

為了解決這個問題,新加坡科學技術研究機構(A*STAR)的一個計算機科學家團隊最近設計了一種協作知識注入方法,可以使用少量訓練數據有效地訓練機器學習模型。在這種情況下,研究人員創建了一個模型,可以根據推文、商業評論或其他語言數據的上下文更準確地確定特定目標(例如產品或政治候選人)的立場或支持或反對。

該團隊於8月28日在《大數據挖掘與分析》雜誌上發表了他們的研究。

「由於目標的多樣性和注釋數據的可用性有限,位置檢測本質上是一項資源較少的任務。儘管存在這些挑戰,職位測試對於監控社交媒體、進行民意調查和為治理策略提供信息至關重要。「前沿人工智慧研究中心(CFAR)的 *STAR科學家,也是該論文的主要作者。「增強基於人工智慧的低資源手勢檢測方法對於確保這些工具在現實世界應用中有效和可靠至關重要。"

較小的訓練數據集對人工智慧預測模型的準確性產生深遠影響。例如,維基百科中的目標「違法」與猶大牧師的一首重金屬歌曲有關,而不是該術語的真正定義:以非法方式行事。此類錯誤的訓練數據可能會嚴重影響機器學習模型的性能。

為了提高依賴於較小訓練數據集的人工智慧手勢檢測的準確性,研究團隊專注於協作模型機制,以:驗證來自不同來源的知識並更有效地學習選擇性特徵。

「大多數人工智慧系統依賴於使用大型預定義數據集開發的預訓練模型,這些模型可能會過時,導致性能下降。我們提出的方法通過整合來自多個來源的成熟知識來解決這一挑戰,確保模型保持相關性和有效性,」明說。

由於參數的大小很大,預先訓練的大型語言模型也需要大量的注釋數據進行訓練。我們的方法引入了一個協作適配器,它包含最少數量的可訓練參數,...提高了訓練效率,提高了特徵學習能力。

該團隊還使用分層優化算法來優化大規模PLM的效率。

為了測試他們的模型,研究人員對三個公開的手勢檢測數據集進行了實驗:VAST,P-Stance和COVID-19-Stance。然後將團隊模型的性能與TAN,BERT,WS-BERT-Dual和其他AI模型的性能進行比較。

以F1評分(ML模型準確性)衡量,研究團隊針對低資源訓練數據的新手勢檢測模型的評分始終高於使用所有三個數據集的其他人工智慧模型,F1評分範圍為79.6%至86.91%。目前,F1評分達到70%或更高被認為是良好的。

新的姿態檢測模型極大地提高了人工智慧在更專業研究環境中的實用性,並為未來進一步優化提供了模板。

「我們的主要重點是在資源稀缺的現實世界應用程式中進行高效學習。CFAR首席科學家、該論文的合著者Joey Tian Zhou表示,與專注於開發通用人工智慧(AGI)模型的大型人工智慧公司不同,我們的目標是創建更高效的人工智慧方法,使公眾和研究都受益。

艾弗·W來自新加坡科學技術研究機構(A*STAR)前沿人工智慧研究中心(CFAR)和高性能計算研究所(IHW)。曾先生也對這項研究做出了貢獻。

欲了解更多內容,可以點擊視頻下方的連結
感謝您觀看此視頻。如果您喜歡,請訂閱並點讚。謝謝

原文:https://techxplore.com/news/2024-09-ai-stance-efficiency.html

輸油管:

返回頂端