本發(fā)明屬于多模態(tài)姿態(tài)識(shí)別,涉及到基于transformer融合的多模態(tài)姿態(tài)識(shí)別系統(tǒng)。、人體姿態(tài)估計(jì)技術(shù)通過(guò)捕捉人體關(guān)節(jié)點(diǎn)的空間位置與運(yùn)動(dòng)信息,為具身智能系統(tǒng)構(gòu)建動(dòng)態(tài)、精確的人體運(yùn)動(dòng)模型提供核心輸入,從而使其能夠準(zhǔn)確理解自身狀態(tài)、人體行為意圖及其與環(huán)境的交互關(guān)系,為人機(jī)協(xié)作、虛擬現(xiàn)實(shí)、遠(yuǎn)程操...