- k W' x1 F6 p 不过很快,质疑声便出现。6月2日下午,网友Magic Yang称发现了一个“令人震惊”的事实:Llama3-V项目中有大量疑似抄袭MiniCPM-Llama3-V 2.5的内容,同时晒出了多项Llama3-V涉嫌抄袭的证据。 ; X1 Y. B- L' q) S , k; X x6 ?7 |. H" I8 a' v3 V5 V 比如在模型结构和配置文件上,二者高度雷同,只是变量名不同。Llama3-V的代码也几乎完全照抄MiniCPM-Llama3-V 2.5,仅做了一些重新格式化和变量重命名,包括但不限于图像切片、分词器、重采样器、数据加载等变量。
网友晒出Llama3-V涉嫌抄袭的证据。$ T C" V/ n( A) p9 c
GitHub项目信息显示,MiniCPM-Llama3-V2.5共有8B个参数,整体性能超越GPT-4V-1106、Gemini Pro、Qwen-VL-Max和Claude3等专有模型,配备了增强的OCR和指令跟踪能力,还可以支持英语、中文、法语等30多种语言的多模态对话。这款端测多模态开源模型,由清华大学自然语言处理实验室与面壁智能合作开发,于今年5月20日推出。 9 L4 [) k0 ^* T; z! `3 U ; R f/ D/ d+ w8 e 南都记者尝试联系这位揭露Llama3-V涉嫌抄袭的网友Magic Yang(知乎网名“社恐患者杨老师”),他向南都记者回顾了这场打假的过程。杨老师表示,最近正在帮助一名博士生做有关运动处方的项目,想选择一个质量较好的开源模型作为微调的基座。此前他曾测试了MiniCPM-Llama3-V2.5,因此对MiniCPM的模型架构和代码都相对熟悉。5 N/ m0 I2 w [* |0 v u
% o, w* v- w% T( q9 q: v. z$ L4 F 后来他注意到,Llama3-V项目在HuggingFace上排名也非常靠前,且获得了相关博主推荐,于是想进一步做测试。但在这过程中,他发现二者在模型架构和代码上存在高度相似的情况,就此询问了Llama3-V作者。结果对方避重就轻,并不正面回应,随后更是将质疑帖子删除,且隐藏了MiniCPM-Llama3-V 2.5的项目主页。 - y4 a0 f" [+ M* |! B 3 } }, R* i2 G4 p7 s1 [4 [ 这一系列的操作,令人生疑。6月2日下午,杨老师把所知的证据发到MiniCPM-V的Github项目主页,并提醒面壁智能团队关注。相关对话截图显示,Llama3-V项目作者最初否认抄袭,并称他们的项目开始时间更早,只是使用了MiniCPM-V2的分词器。 % i w! X; S$ Y$ g& x$ F' f0 h8 k6 l! {& j2 l' @0 `7 Z
杨老师告诉南都记者,作为一个有大模型经验的开发者,发现(抄袭行为)不难,但要证实不易。此事最终一锤定音,还是因为面壁智能团队使用内部数据集“清华简”做了对比测试。 " r- y; ^/ Z2 ]( p" H4 X o) f' ] : u3 s( p o" s( r4 A “连错的都一模一样”,确信是套壳; q1 W. A9 Q+ F9 F! z" D4 ?- h
刘知远的回应。. a1 U) a) h o% {8 ~& ?
针对此事,面壁智能CEO李大海也发文称,深表遗憾。“技术创新不易,好的成果希望被更多人关注和认可,但不是以这种方式。”李大海呼吁,大家共建开放、合作、有信任的社区环境。' w' y- p% T0 k9 g% M# _) T$ D
: @0 s m# T- N 刘知远也表示,人工智能的飞速发展离不开全球算法、数据与模型的开源共享,让人们始终可以站在SOTA(意为“最新技术”的最佳状态)的肩上持续前进。这次开源的MiniCPM-Llama3-V 2.5就用到了最新的Llama3作为语言模型基座。 $ c# g, H. _0 K V+ F" v5 Q/ s; m ( O6 t2 c8 P7 t- d q5 ^4 H “开源共享的基石是对开源协议的遵守,对其他贡献者的信任,对前人成果的尊重和致敬,Llama3-V团队无疑严重破坏了这一点。”同时他提到,Llama3-V团队的三位作者中,有两位是斯坦福大学本科生,未来还有很长的路,“如果知错能改,善莫大焉”。 ( u' g* i; J. g+ S+ a- x% ^6 i t( j7 y! B
北京时间4日凌晨,卷入此次风波的两名斯坦福大学本科生Siddharth Sharma和Aksh Garg在社交平台上解释,称该项目由三人发布,他们只在其中帮忙推广模型,负责代码编写的是Mustafa Aljadery。事发后,他们曾尝试联系Mustafa发布原创性声明,并提供训练代码,但到目前为止还未看到任何证据。在这份联合声明中,两人再次向原作者道歉,并称对未尽职尽责确保Llama3-V的独创性而感到失望,现已将所有对Llama3-V的引用都删除了。