日韩成人黄色,透逼一级毛片,狠狠躁天天躁中文字幕,久久久久久亚洲精品不卡,在线看国产美女毛片2019,黄片www.www,一级黄色毛a视频直播

用于人工智能或機器學習訓練的方法和裝置與流程

文檔序號:42037779發(fā)布日期:2025-05-30 17:32閱讀:9來源:國知局

本發(fā)明大體上涉及無線通信,并且在特定實施例中,涉及用于人工智能或機器學習(artificial?intelligence/machine?learning,ai/ml)訓練的方法和裝置。


背景技術:

1、人工智能技術可以應用于通信,包括物理層中基于人工智能或機器學習(artificial?intelligence/machine?learning,ai/ml)的通信和/或媒體接入控制(medium?access?control,mac)層中基于ai/ml的通信。例如,在物理層中,基于ai/ml的通信可以旨在優(yōu)化組件設計和/或提高算法性能。對于mac層,基于ai/ml的通信可以旨在利用ai/ml能力進行學習、預測和/或做出決策,以可能更好的策略和/或最優(yōu)解解決復雜的優(yōu)化問題,例如優(yōu)化mac層中的功能。

2、在一些實現(xiàn)方式中,無線通信網(wǎng)絡中的ai/ml架構可以涉及多個節(jié)點,其中,多個節(jié)點可以以集中式和分布式兩種模式中的一種模式進行組織,這兩種模式都可以部署在接入網(wǎng)、核心網(wǎng)或邊緣計算系統(tǒng)或第三方網(wǎng)絡中。集中式訓練和計算架構會受到可能較大的通信開銷和嚴格的用戶數(shù)據(jù)隱私的限制。分布式訓練和計算架構可以包括若干框架,例如分布式機器學習和聯(lián)邦學習。

3、但是,無線通信系統(tǒng)中的通信,包括與多個節(jié)點處的ai/ml模型訓練相關聯(lián)的通信,通常在非理想信道上進行。例如,非理想條件(例如電磁干擾、信號劣化、相位延遲、衰落和其它非理想條件)可能會使通信信號衰減和/或失真,或者以其它方式干擾或降低系統(tǒng)的通信能力。

4、傳統(tǒng)的ai/ml模型訓練過程通常依賴于混合自動重傳請求(hybrid?automaticrepeat?request,harq)反饋和重傳過程,以嘗試確保參與ai/ml模型訓練的設備之間傳輸?shù)臄?shù)據(jù)被成功接收。但是,與這種重傳相關聯(lián)的通信開銷和延遲可能是有問題的。

5、此外,用于ai/ml訓練過程的訓練數(shù)據(jù)的處理能力和/或可用性在不同節(jié)點/設備之間可能存在顯著差異,這意味著不同節(jié)點有效參與ai/ml模型訓練過程的能力可能存在顯著差異。在實踐中,這種差異通常意味著涉及多個節(jié)點/設備的ai/ml模型訓練過程(例如基于分布式學習或聯(lián)邦學習的ai/ml模型訓練過程)的訓練延遲由具有最大延遲(由于通信延遲和/或計算延遲)的節(jié)點/設備主導。

6、因此,減少ai/ml模型訓練過程的訓練延遲的一種方式可以是最大限度地降低通信延遲和/或計算延遲。這些延遲可以通過僅使用重要數(shù)據(jù)而減少,例如僅傳輸重要數(shù)據(jù)和/或僅使用重要數(shù)據(jù)來執(zhí)行ai/ml模型訓練過程。

7、在現(xiàn)有的無線通信系統(tǒng)中,例如在5g網(wǎng)絡系統(tǒng)中,數(shù)據(jù)的重要性可以基于在高層中定義的服務質量(quality?of?service,qos)來確定。例如,5g?qos標識符(5g?qosidentifier,5qi)中的優(yōu)先級可以用于指示數(shù)據(jù)的重要性。對于上行數(shù)據(jù)調(diào)度,5qi的優(yōu)先級被映射到mac層邏輯信道的優(yōu)先級。當用戶設備(user?equipment,ue)執(zhí)行mac功率分配單元(power?distribution?unit,pdu)復用和組裝等過程時,所有選擇的邏輯信道按照優(yōu)先級的降序進行服務。換句話說,優(yōu)先級較高的邏輯信道具有較高的傳輸機會,因此將被認為具有較高的重要性級別。

8、在高層定義的數(shù)據(jù)的重要性可以與某種數(shù)據(jù)類型關聯(lián)。每種數(shù)據(jù)類型都可以被視為具有一定的數(shù)據(jù)重要性級別。換句話說,每種數(shù)據(jù)類型都與相應的數(shù)據(jù)重要性級別關聯(lián),即不同的數(shù)據(jù)類型指示不同的數(shù)據(jù)重要性級別。因此,可以基于數(shù)據(jù)的數(shù)據(jù)類型來確定數(shù)據(jù)的重要性。但是,當數(shù)據(jù)類型相同時,應當如何確定數(shù)據(jù)重要性并不明確。這可能是一個問題,特別是對于部署了ai/ml模型的智能通信系統(tǒng),例如6g網(wǎng)絡。

9、由于這些和其它原因,需要新的方法和設備,以便可以實現(xiàn)新的支持ai的應用和過程,同時最大限度地減少與現(xiàn)有ai/ml模型訓練過程關聯(lián)的信令和通信開銷和延遲。


技術實現(xiàn)思路

1、現(xiàn)有的人工智能或機器學習(artificial?intelligence/machine?learning,ai/ml)模型訓練過程中存在限制。例如,如上所述,當數(shù)據(jù)類型相同時,應當如何確定數(shù)據(jù)重要性并不清楚,這可能是一個問題,特別是對于部署了ai/ml模型的智能通信系統(tǒng),例如6g無線網(wǎng)絡。在6g網(wǎng)絡中,用戶設備(user?equipment,ue)可以收集ai/ml模型訓練數(shù)據(jù)樣本并將所收集的樣本上報到網(wǎng)絡(例如,基站(base?station,bs))。ai/ml模型訓練數(shù)據(jù)樣本可以包括參考信號或傳感器(例如相機)的測量。ai/ml模型訓練數(shù)據(jù)的來源可能是穩(wěn)定的。例如,參考信號是從bs周期性地發(fā)送的。但是,ai/ml訓練數(shù)據(jù)樣本的內(nèi)容在不同的時間實例可能會有所不同。這意味著ai/ml訓練數(shù)據(jù)樣本的重要性可能在不同的時間實例上有所不同。例如,在一個時間實例中收集的ai/ml訓練數(shù)據(jù)樣本的重要性可能高于在另一個時間實例中收集的其它ai/ml訓練數(shù)據(jù)樣本的重要性。但是,不一定能基于數(shù)據(jù)類型確定ai/ml訓練數(shù)據(jù)樣本的重要性,因為每個ai/ml訓練數(shù)據(jù)樣本可能是相同類型的數(shù)據(jù)。

2、此外,在6g智能通信系統(tǒng)中,ai/ml模型的性能的確定不僅可以基于推理精度,還可以基于傳輸開銷和時延。如果ue發(fā)送所有收集的ai/ml模型訓練數(shù)據(jù)樣本,而不考慮它們的數(shù)據(jù)重要程度,則可能需要大量的網(wǎng)絡資源來發(fā)送ai/ml訓練數(shù)據(jù),因此可能會降低ai/ml模型和通信系統(tǒng)的整體性能。

3、在現(xiàn)有的通信系統(tǒng)(例如,5g網(wǎng)絡)中,在確定或評估數(shù)據(jù)重要性方面存在一些問題。例如,在5g中,數(shù)據(jù)重要性可以僅基于在高層中確定的5g?qos標識符(5g?qosidentifier,5qi)中的優(yōu)先級來確定或評估。但是,在5g中,數(shù)據(jù)的重要性無法在物理層中確定。此外,如上所述,對于具有相同數(shù)據(jù)類型的數(shù)據(jù),缺少數(shù)據(jù)重要性的概念。如果沒有確定數(shù)據(jù)重要性,例如,由于巨大的傳輸開銷,6g中的ai/ml模型和智能通信系統(tǒng)的整體性能可能會下降。

4、本發(fā)明的各方面提供了克服上述限制中的至少一些的方案,例如用于人工智能或機器學習(artificial?intelligence/machine?learning,ai/ml)模型訓練的特定方法和設備。

5、根據(jù)本發(fā)明的第一廣義方面,本文提供了一種用于支持在無線通信網(wǎng)絡中進行ai/ml模型訓練的方法。根據(jù)本發(fā)明第一廣義方面的方法可以包括:第一設備從第二設備接收ai/ml模型訓練輔助信息。根據(jù)本發(fā)明的第一廣義方面的方法還可以包括:第一設備基于ai/ml模型訓練輔助信息確定相應的ai/ml模型訓練數(shù)據(jù)的數(shù)據(jù)狀態(tài)信息(data?stateinformation,dsi)。根據(jù)本發(fā)明第一廣義方面的方法還可以包括:第一設備從第二設備接收與相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送相關的信息。根據(jù)本發(fā)明第一廣義方面的方法還可以包括:第一設備基于相應的ai/ml模型訓練數(shù)據(jù)的dsi或與相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送相關的信息中的至少一個,向第二設備發(fā)送相應的ai/ml模型訓練數(shù)據(jù)。

6、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)是選擇性地發(fā)送的,并且與相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送相關的信息包括dsi閾值,其中,處理器可執(zhí)行指令還包括在被執(zhí)行時使處理器執(zhí)行以下操作的處理器可執(zhí)行指令:基于dsi閾值和相應的ai/ml模型訓練數(shù)據(jù)的dsi,確定相應的ai/ml模型訓練數(shù)據(jù)是否將被發(fā)送到第二設備。

7、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)是選擇性地發(fā)送的,并且與相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送相關的信息包括指示相應的ai/ml模型訓練數(shù)據(jù)是否將被發(fā)送到第二設備的信息,其中,處理器可執(zhí)行指令還包括在被執(zhí)行時使處理器執(zhí)行以下操作的處理器可執(zhí)行指令:向第二設備發(fā)送相應的ai/ml模型訓練數(shù)據(jù)的dsi或ai/ml模型訓練數(shù)據(jù)集信息中的至少一個;從第二設備接收指示相應的ai/ml模型訓練數(shù)據(jù)是否將被發(fā)送到第二設備的信息。

8、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,ai/ml模型訓練數(shù)據(jù)集信息包括以下中的至少一種:ai/ml模型訓練數(shù)據(jù)集大小,或ai/ml模型訓練數(shù)據(jù)集的dsi分布信息。

9、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,ai/ml模型訓練數(shù)據(jù)集信息是使用緩沖區(qū)狀態(tài)報告(buffer?status?report,bsr)或調(diào)度請求(scheduling?request,sr)發(fā)送的。

10、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)是根據(jù)相應的報告格式發(fā)送的,相應的報告格式是基于相應的ai/ml模型訓練數(shù)據(jù)的dsi或與相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送相關的信息中的至少一個確定的。

11、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,相應的報告格式指示相應的傳輸精度,相應的傳輸精度的級別是基于相應的ai/ml模型訓練數(shù)據(jù)的dsi的級別確定的。

12、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,相應的報告格式指示用于相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送的配置。

13、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,用于相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送的配置指示用于相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送的資源或用于相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送的量化粒度中的至少一個。

14、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,相應的報告格式指示相應的ai/ml模型訓練數(shù)據(jù)是否包括信道狀態(tài)信息(channel?state?information,csi)或原始信道信息。

15、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)的dsi與相應的報告格式之間的關系由第二設備配置。

16、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,ai/ml模型訓練輔助信息包括關于參考ai/ml模型的信息或至少一個參考輸入數(shù)據(jù)值中的至少一個。

17、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,關于參考ai/ml模型的信息包括以下中的至少一種:參考ai/ml模型類型、參考ai/ml模型結構、一個或多個參考ai/ml模型參數(shù)、參考ai/ml模型梯度、參考ai/ml模型激活函數(shù)、參考ai/ml模型輸入數(shù)據(jù)類型、參考ai/ml模型輸出數(shù)據(jù)類型、參考ai/ml模型輸入數(shù)據(jù)維度或參考ai/ml模型輸出數(shù)據(jù)維度。

18、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,確定相應的ai/ml模型訓練數(shù)據(jù)的dsi包括將相應的ai/ml模型訓練數(shù)據(jù)輸入到參考ai/ml模型中,并基于參考ai/ml模型的輸出確定dsi。

19、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,輸入到參考ai/ml模型中的相應的ai/ml模型訓練數(shù)據(jù)替換至少一個參考輸入數(shù)據(jù)值。

20、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,處理器可執(zhí)行指令還包括在被執(zhí)行時使處理器執(zhí)行以下操作的處理器可執(zhí)行指令:從第二設備接收更新后的ai/ml模型訓練輔助信息。

21、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)的dsi包括指示以下中的至少一種的信息:相應的ai/ml模型訓練數(shù)據(jù)的數(shù)據(jù)不確定性;相應的ai/ml模型訓練數(shù)據(jù)的數(shù)據(jù)重要性;相應的ai/ml模型訓練數(shù)據(jù)對于ai/ml模型訓練的需求程度;或相應的ai/ml模型訓練數(shù)據(jù)的數(shù)據(jù)多樣性。

22、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)的數(shù)據(jù)不確定性是基于以下中的至少一種確定的:熵、最小置信度、邊緣采樣或泛化誤差。

23、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,ai/ml模型訓練是至少部分地由第二設備執(zhí)行的。

24、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)包括第一設備的局部ai/ml模型的局部ai/ml模型訓練數(shù)據(jù)或與局部ai/ml模型關聯(lián)的局部梯度中的至少一個。

25、在根據(jù)本發(fā)明第一廣義方面的方法的一些實施例中,第一設備和第二設備協(xié)作以進行ai/ml模型訓練,其中,處理器可執(zhí)行指令還包括在被執(zhí)行時使處理器執(zhí)行以下操作的處理器可執(zhí)行指令:在確定相應的ai/ml模型訓練數(shù)據(jù)的dsi之前,執(zhí)行ai/ml模型訓練的部分,其中,相應的ai/ml模型訓練數(shù)據(jù)包括ai/ml模型訓練的部分的相應的輸出。

26、根據(jù)本發(fā)明的第二廣義方面,本文提供了一種用于在無線通信網(wǎng)絡中進行ai/ml模型訓練的方法。根據(jù)本發(fā)明第二廣義方面的方法可以包括:第一設備向第二設備發(fā)送用于確定相應的ai/ml模型訓練數(shù)據(jù)的數(shù)據(jù)狀態(tài)信息(data?state?information,dsi)的ai/ml模型訓練輔助信息。根據(jù)本發(fā)明第二廣義方面的方法還可以包括:第一設備向第二設備發(fā)送與相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送相關的信息。根據(jù)本發(fā)明第二廣義方面的方法還可以包括:第一設備從第二設備接收相應的ai/ml模型訓練數(shù)據(jù),相應的ai/ml模型訓練數(shù)據(jù)是基于相應的ai/ml模型訓練數(shù)據(jù)的dsi或與相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送相關的信息中的至少一個發(fā)送的。根據(jù)本發(fā)明第二廣義方面的方法還可以包括:第一設備使用相應的ai/ml模型訓練數(shù)據(jù)執(zhí)行ai/ml模型訓練。

27、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)是選擇性地發(fā)送的,并且與相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送相關的信息包括dsi閾值,其中,處理器可執(zhí)行指令還包括在被執(zhí)行時使處理器執(zhí)行以下操作的處理器可執(zhí)行指令:配置用于確定相應的ai/ml模型訓練數(shù)據(jù)是否將被發(fā)送到第一設備的dsi閾值。

28、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)是選擇性地發(fā)送的,并且與相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送相關的信息包括指示相應的ai/ml模型訓練數(shù)據(jù)是否將被發(fā)送到第一設備的信息,其中,處理器可執(zhí)行指令還包括在被執(zhí)行時使處理器執(zhí)行以下操作的處理器可執(zhí)行指令:從第二設備接收相應的ai/ml模型訓練數(shù)據(jù)的dsi或ai/ml模型訓練數(shù)據(jù)集信息中的至少一個;使用相應的ai/ml模型訓練數(shù)據(jù)的dsi或ai/ml模型訓練數(shù)據(jù)集信息中的至少一個確定相應的ai/ml模型訓練數(shù)據(jù)是否將被發(fā)送到第一設備;向第二設備發(fā)送指示相應的ai/ml模型訓練數(shù)據(jù)是否將被發(fā)送到第一設備的信息。

29、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,ai/ml模型訓練數(shù)據(jù)集信息包括ai/ml模型訓練數(shù)據(jù)集大小或ai/ml模型訓練數(shù)據(jù)集的dsi分布信息中的至少一個。

30、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,ai/ml模型訓練數(shù)據(jù)集信息是使用緩沖區(qū)狀態(tài)報告(buffer?status?report,bsr)或調(diào)度請求(scheduling?request,sr)發(fā)送的。

31、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)是根據(jù)相應的報告格式發(fā)送的,相應的報告格式是基于相應的ai/ml模型訓練數(shù)據(jù)的dsi或與相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送相關的信息中的至少一個確定的。

32、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,相應的報告格式指示相應的傳輸精度,相應的傳輸精度的級別是基于相應的ai/ml模型訓練數(shù)據(jù)的dsi的級別確定的。

33、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,相應的報告格式指示用于相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送的配置。

34、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,用于相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送的配置指示用于相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送的資源或用于相應的ai/ml模型訓練數(shù)據(jù)的發(fā)送的量化粒度中的至少一個。

35、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,相應的報告格式指示相應的ai/ml模型訓練數(shù)據(jù)是否包括信道狀態(tài)信息(channel?state?information,csi)或原始信道信息。

36、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,處理器可執(zhí)行指令還包括在被執(zhí)行時使處理器執(zhí)行以下操作的處理器可執(zhí)行指令:配置相應的ai/ml模型訓練數(shù)據(jù)的dsi與相應的報告格式之間的關系。

37、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,ai/ml模型訓練輔助信息包括關于參考ai/ml模型的信息或至少一個參考輸入數(shù)據(jù)值中的至少一個。

38、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,關于參考ai/ml模型的信息包括以下中的至少一種:參考ai/ml模型類型、參考ai/ml模型結構、一個或多個參考ai/ml模型參數(shù)、參考ai/ml模型梯度、參考ai/ml模型激活函數(shù)、參考ai/ml模型輸入數(shù)據(jù)類型、參考ai/ml模型輸出數(shù)據(jù)類型、參考ai/ml模型輸入數(shù)據(jù)維度或參考ai/ml模型輸出數(shù)據(jù)維度。

39、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,處理器可執(zhí)行指令還包括在被執(zhí)行時使處理器執(zhí)行以下操作的處理器可執(zhí)行指令:更新ai/ml模型訓練輔助信息;向第二設備發(fā)送更新后的ai/ml模型訓練輔助信息。

40、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)的dsi包括指示以下中的至少一種的信息:相應的ai/ml模型訓練數(shù)據(jù)的數(shù)據(jù)不確定性;相應的ai/ml模型訓練數(shù)據(jù)的數(shù)據(jù)重要性;相應的ai/ml模型訓練數(shù)據(jù)對于ai/ml模型訓練的需求程度;或相應的ai/ml模型訓練數(shù)據(jù)的數(shù)據(jù)多樣性。

41、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)的dsi是基于以下中的至少一種確定的:熵、最小置信度、邊緣采樣或泛化誤差。

42、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,相應的ai/ml模型訓練數(shù)據(jù)包括第二設備的局部ai/ml模型的局部ai/ml模型訓練數(shù)據(jù)或與局部ai/ml模型關聯(lián)的局部梯度中的至少一個。

43、在根據(jù)本發(fā)明第二廣義方面的方法的一些實施例中,第一設備和第二設備協(xié)作以進行ai/ml模型訓練,使得第一設備在確定相應的ai/ml模型訓練數(shù)據(jù)的dsi之前執(zhí)行ai/ml模型訓練的部分,相應的ai/ml模型訓練數(shù)據(jù)包括ai/ml模型訓練的部分的相應的輸出。

44、公開了用于執(zhí)行上述方法的對應設備。

45、例如,根據(jù)本發(fā)明的另一方面,提供了一種設備,該設備包括處理器和存儲器,存儲器存儲處理器可執(zhí)行指令,處理器可執(zhí)行指令在被執(zhí)行時使處理器:執(zhí)行根據(jù)上述本發(fā)明第一廣義方面或第二廣義方面的方法。

46、根據(jù)本發(fā)明的其它方面,提供了一種設備,該設備包括用于實現(xiàn)本發(fā)明中公開的任何方法方面的一個或多個單元。術語“單元”在廣義上使用,并且可以用各種名稱中的任何一個,包括例如模塊、組件、元件、構件等。這些單元可以使用硬件、軟件、固件或其任何組合來實現(xiàn)。

47、通過本發(fā)明的某些方面,增強了ai/ml模型的性能,并且可以避免在ai/ml模型訓練過程中出現(xiàn)過擬合現(xiàn)象。此外,由于基于ai/ml模型訓練數(shù)據(jù)的數(shù)據(jù)狀態(tài)信息(dsi)傳輸較少的ai/ml模型訓練數(shù)據(jù)樣本,所以可以減少傳輸開銷(例如,空口開銷)。dsi(例如,數(shù)據(jù)不確定性)可以在設備(例如,ue、bs)上報或發(fā)送ai/ml模型訓練數(shù)據(jù)之前在設備處測量。

48、通過本發(fā)明的一些方面,例如在聯(lián)邦學習中,避免了傳輸不會有助于全局ai/ml模型收斂的ai/ml模型訓練數(shù)據(jù)(例如,局部梯度)。這樣,可以減少聯(lián)邦學習中的信令開銷,可以提高ai/ml模型的性能,并且增強ai/ml模型訓練。

49、通過本發(fā)明的一些方面,可以在雙側ai/ml模型訓練中實現(xiàn)ai/ml模型的快速收斂。由于ai/ml模型訓練數(shù)據(jù)集的傳輸次數(shù)減少,所以可以避免額外的信令開銷。

50、通過本發(fā)明的一些方面,可以平衡ai/ml模型的增強性能并減少傳輸開銷。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1