華為盤古大模型回應抄襲質疑:堅守開源合規與自主創新
近日,華為盤古大模型深陷輿論風波,面臨是否抄襲的嚴峻質疑。7 月 5 日,華為盤古 Pro MoE 技術開發團隊發布官方聲明,對相關爭議做出正式回應。
6 月 30 日,華為開源了盤古 70 億參數的稠密模型、盤古 Pro MoE 720 億參數的混合專家模型,同時開放基于昇騰 AI 平臺的模型推理技術。然而僅隔四天,7 月 4 日,一份發布在 GitHub 上的技術分析報告將華為盤古大模型推上了風口浪尖。該報告由一位自稱為哥斯達黎加大學的韓國學生發布,他采用 “LLM - Fingerprint” 技術,對華為盤古 Pro MoE 模型與阿里巴巴通義千問 Qwen - 2.5 14B 模型進行深度比對。結果顯示,兩者在 “指紋” 上的相似度達到 0.927,遠超不同獨立訓練模型間的正常差異范圍。并且,研究者在盤古開源的代碼文件中發現了明確指向阿里巴巴的版權聲明 “Copyright 2024 The Qwen team, Alibaba Group”,這一發現似乎坐實了兩者之間存在代碼繼承關系。
面對質疑,華為盤古團隊迅速回應。聲明首先強調,盤古 Pro MoE 開源模型是基于華為自家的昇騰(Ascend)硬件平臺開發、訓練的基礎大模型,并非基于其他廠商模型進行增量訓練的產物。團隊創新性地提出了分組混合專家模型(MoGE)架構,這是全球首個面向昇騰硬件平臺設計的同規格混合專家模型。該架構有效解決了大規模分布式訓練過程中的負載均衡難題,顯著提升了整體訓練效率。
同時,華為方面也承認,盤古 Pro MoE 開源模型的部分基礎組件代碼實現,確實參考了業界的開源實踐,涉及其他開源大模型的部分開源代碼。但團隊嚴格遵循了開源許可證的要求,在相關的開源代碼文件中清晰標注了版權聲明。華為認為,這是開源社區的通行做法,符合開源協作的精神。
然而,7 月 6 日凌晨,一位自稱是盤古大模型團隊的員工自曝,稱存在套殼、續訓、洗水印等現象。該員工表示團隊初期算力有限,存在使用 Qwen 1.5 110B 續訓等情況,并采取了一些手段來 “洗掉” 千問的水印。截至目前,華為尚未對此自曝內容發表聲明。
此次華為盤古大模型的爭議,反映出人工智能大模型時代開源概念面臨的挑戰。在大模型發展中,使用開源模型架構、參考代碼與直接使用他人模型權重之間的界限模糊,而訓練大模型成本高昂,使得類似爭議屢見不鮮。但無論如何,技術創新和知識產權保護都是行業發展的關鍵,期待華為后續能進一步回應相關問題,也希望行業能在爭議中不斷完善規范,推動人工智能技術健康發展
