12月20日,利亞德·虛擬動點在AI成果發布日正式發布「LYDIA」動作大模型。華為雲、京東科技、科大訊飛、天翼雲、英特爾、亞馬遜雲等合作夥伴出席發布會,共同見證AI時代的歷史時刻。
利亞德集團CMO、虛擬動點CEO劉耀東現場發布了LYDIA動作大模型——該模型是利亞德·虛擬動點自主研發的專業能力大模型,具備對空間動作數據的「認知、感知、預測、生成」等核心能力,在全球範圍的空間計算、動作生成領域率先探索了AIGC的新模式。

憑藉動作數據積累
躬身入局大模型領域
AI時代研發大模型的瓶頸不再是算法的開發,而是數據的積累。利亞德·虛擬動點在空間計算和動作捕捉領域多年積累了大量的動作數據,這是其他AI大模型公司無法比擬的,也是利亞德·虛擬動點能開發出動作大模型的核心原因。
LYDIA動作大模型的參數包括兩個部分:基礎數據參數和核心動作數據參數。在基礎數據參數方面,LYDIA參考了當今主流的大模型數據集,在訓練模型對於自然語言理解的過程中達到了百億集的規模;在核心動作數據參數方面,擁有多年optitrack光學動捕的數據積累、無標記點動捕的數據沉澱,以及網際網路公開影片中的動作數據提煉。憑藉三種動作數據的積累,利亞德·虛擬動點對LYDIA大模型成功進行了動作數據的認知訓練。
LYDIA動作大模型
不作詩,只做事,而且更專注
劉耀東在分享中表示:「LYDIA是目前全球範圍為數不多真正實現動作生成的大模型。區別於其他通用大模型,LYDIA動作大模型是專業能力大模型,二者能力特點不同、應用的領域也不同,互為能力補充,場景補齊。LYDIA可實現對空間計算領域動作數據的認知理解,從而進行高效的動作生成。與此同時,LYDIA支持被其他軟體平台打通和調用,使得其生成的動作文件可以被生態夥伴商業化利用。」

發布現場,利亞德·虛擬動點技術總監崔超現場首先演示了LYDIA大模型對於動作數據文件的認知理解與描述能力,該能力可以助力AI數據標註產業效率大幅提升,為大模型持續訓練海量數據提供保障;其次,現場分別用LYDIA大模型連續生成了一個簡單動作、一組複雜動作以及一系列特徵型動作;最後,現場演示了LYDIA大模型與主流渲染引擎Unity平台的數據打通與調用能力,實現了動作大模型與其他工具平台的商業閉環。

LYDIA與OptiTrack
針對不同需求,服務不同場景
LYDIA和OptiTrack是兩種不同能力的技術產品。LYDIA大模型聚焦於解決對於動作數據獲取效率更為看重的行業場景,而OptiTrack光學動捕則更擅長對精度需求更為看重的行業場景。簡而言之,LYDIA注重效率,Optitrack注重精度,兩者相互配合,高效運作,為不同需求客戶創造價值。
例如在影視、電商、動畫製作、遊戲等行業中,LYDIA可憑藉其AIGC生成能力大幅提升行業生產效率,為行業創造更大價值。

躬身入局,銳意進取。在AI時代的大背景下,AIGC已經成為行業變革的核心力量。未來,利亞德·虛擬動點將繼續不斷提升LYDIA的技術能力,並與眾多合作夥伴攜手共建「專業能力動作大模型生態」,賦能千行百業。