传播网-传播网门户网站(www.icbw.com.cn) - 传播网!

标题: 斯坦福两学生抄袭清华系大模型,是如何被发现的?对话打假者 [打印本页]

作者: admin    时间: 2024-6-5 15:55
标题: 斯坦福两学生抄袭清华系大模型,是如何被发现的?对话打假者
一则斯坦福大学Llama3-V团队抄袭清华系大模型的消息,近日在海内外引发热议。北京时间4日凌晨,该团队的两名成员Siddharth Sharma和Aksh Garg在社交媒体X上对这一学术不端行为公开致歉,并表示会将Llama3-V模型悉数撤下。
/ Q6 g1 E/ I9 {/ R
9 ^! M- k: f$ Z+ Q0 q8 p) c  据悉,两人是斯坦福大学计算机科学专业的本科生,自称在团队中的角色是模型推广,而负责该项目代码编写的是毕业于南加利福尼亚大学Mustafa Aljadery。事发后,他们要求Mustafa提供原创性证明和训练代码,但未取得任何证据。
- i: {9 U7 Z* |$ H1 Q5 ]4 q# S6 X) k: ?4 |5 x
  4日记者尝试联系率先发现清华系模型被套壳的网友,他表示只是做了一名开源社区工作者应该做的事。此次Llama3-V的抄袭行为,“相当于把可口可乐换成可日可乐就说是自己的项目”。: d: u6 W; M* r1 `

/ `$ K: C' B/ V3 `4 _  针对此事,面壁智能CEO李大海也作出回应,称技术创新不易,呼吁共建开放、合作、有信任的社区环境。' Q4 c- Q/ R- V" ]
& E1 }# j- d' G7 p: g1 M0 I
  用不到500美元训练出超越SOTA水平的大模型?9 ]  }' b- p$ d8 a/ i4 K" U

' q1 G- o7 M8 v" G! a* s& ?7 d7 U  事情起源于5月29日,斯坦福大学AI团队发布Llama3-V开源模型,称它比当前开源SOTA视觉语言模型LLaVA的性能提高了10%-20%,不仅尺寸比GPT-4V小近100倍,而且性能比肩GPT-4V、Gemini Ultra与Claude Opus。 Llama3-V团队声称训练出一个超越SOTA(意为“最新技术”的最佳状态)水平的多模态大型模型,性能比肩多家。4 c: i3 C& ?) G

, O% m4 w9 ?5 X9 O. m% y5 B  更重要的是,该大模型的训练成本仅不到500美元。这一惊艳的成果,再加上三位作者出色的专业和技术研发背景,让Llama3-V一经发布就引发各方关注,并一度登上全球最大的开源大模型社区HuggingFace趋势榜第五位。8 r8 O" J2 B; B' Z; S: {1 j; F

$ K5 N6 W5 o" R+ l  不过很快,质疑声便出现。6月2日下午,网友Magic Yang称发现了一个“令人震惊”的事实:Llama3-V项目中有大量疑似抄袭MiniCPM-Llama3-V 2.5的内容,同时晒出了多项Llama3-V涉嫌抄袭的证据。
, M5 q6 j4 c9 I0 y+ ?
/ A7 Q9 {6 z- I" \  比如在模型结构和配置文件上,二者高度雷同,只是变量名不同。Llama3-V的代码也几乎完全照抄MiniCPM-Llama3-V 2.5,仅做了一些重新格式化和变量重命名,包括但不限于图像切片、分词器、重采样器、数据加载等变量。 网友晒出Llama3-V涉嫌抄袭的证据。
1 J% _% l; C. D6 r$ a  GitHub项目信息显示,MiniCPM-Llama3-V2.5共有8B个参数,整体性能超越GPT-4V-1106、Gemini Pro、Qwen-VL-Max和Claude3等专有模型,配备了增强的OCR和指令跟踪能力,还可以支持英语、中文、法语等30多种语言的多模态对话。这款端测多模态开源模型,由清华大学自然语言处理实验室与面壁智能合作开发,于今年5月20日推出。
3 l! L/ j/ {* f4 x/ y7 a4 `, p
$ b5 y  l9 C) l" f+ y' c6 z  南都记者尝试联系这位揭露Llama3-V涉嫌抄袭的网友Magic Yang(知乎网名“社恐患者杨老师”),他向南都记者回顾了这场打假的过程。杨老师表示,最近正在帮助一名博士生做有关运动处方的项目,想选择一个质量较好的开源模型作为微调的基座。此前他曾测试了MiniCPM-Llama3-V2.5,因此对MiniCPM的模型架构和代码都相对熟悉。- g- q0 T. M; {4 i, _. z& F7 k  m2 L8 V

5 X0 J) b5 G- P& A/ |8 L6 E  后来他注意到,Llama3-V项目在HuggingFace上排名也非常靠前,且获得了相关博主推荐,于是想进一步做测试。但在这过程中,他发现二者在模型架构和代码上存在高度相似的情况,就此询问了Llama3-V作者。结果对方避重就轻,并不正面回应,随后更是将质疑帖子删除,且隐藏了MiniCPM-Llama3-V 2.5的项目主页。$ s8 A% A7 r0 H* J9 M7 @
9 U/ y" f5 V% K" p% l3 k# e
  这一系列的操作,令人生疑。6月2日下午,杨老师把所知的证据发到MiniCPM-V的Github项目主页,并提醒面壁智能团队关注。相关对话截图显示,Llama3-V项目作者最初否认抄袭,并称他们的项目开始时间更早,只是使用了MiniCPM-V2的分词器。 0 a9 A8 c( @! {" _

6 K) l1 z8 k2 [- x; I" |, A9 P  杨老师告诉南都记者,作为一个有大模型经验的开发者,发现(抄袭行为)不难,但要证实不易。此事最终一锤定音,还是因为面壁智能团队使用内部数据集“清华简”做了对比测试。! w$ @* X" R; t+ x

/ D  P8 w) ]1 T! k  “连错的都一模一样”,确信是套壳9 B; ]; ?5 Q! h% R

% B' i) x; }- }& G  南都记者注意到,6月2日深夜,面壁智能团队证实了抄袭行为的存在。经核实,除了社区网友列出的证据外,还发现Llama3-V项目与MiniCP-Llama3-V 2.5一样,可以识别出“清华简”战国古文字,“不仅对的一模一样,连错的都一模一样”。
9 t9 X8 K* k/ @7 y- M% e
0 I  z) W7 Z- [/ K  据面壁智能首席科学家、清华大学长聘副教授刘知远介绍,“清华简”的识别能力,是MiniCPM-Llama3-V 2.5研发时内置了一个彩蛋。这是该团队花费数月从清华简逐字扫描,人工标注而来的数据集,并未公开,由此“已经比较确信Llama3-V是对MiniCPM-Llama3-V2.5套壳。” 刘知远的回应。7 Y$ K9 D! i& X6 N  L2 P
  针对此事,面壁智能CEO李大海也发文称,深表遗憾。“技术创新不易,好的成果希望被更多人关注和认可,但不是以这种方式。”李大海呼吁,大家共建开放、合作、有信任的社区环境。; L7 _' `7 Q4 ?& x$ q0 o
7 l8 S! g8 U8 ~1 e0 S! i# }# m
  刘知远也表示,人工智能的飞速发展离不开全球算法、数据与模型的开源共享,让人们始终可以站在SOTA(意为“最新技术”的最佳状态)的肩上持续前进。这次开源的MiniCPM-Llama3-V 2.5就用到了最新的Llama3作为语言模型基座。! }4 Y1 O2 A: v
, a8 ~3 o( r: Q) s* k1 d
  “开源共享的基石是对开源协议的遵守,对其他贡献者的信任,对前人成果的尊重和致敬,Llama3-V团队无疑严重破坏了这一点。”同时他提到,Llama3-V团队的三位作者中,有两位是斯坦福大学本科生,未来还有很长的路,“如果知错能改,善莫大焉”。# d( g' ?% U/ L) V2 P; j2 K' s, \
: u3 h# V+ I. G7 [4 Z. `/ q3 F. ~
  北京时间4日凌晨,卷入此次风波的两名斯坦福大学本科生Siddharth Sharma和Aksh Garg在社交平台上解释,称该项目由三人发布,他们只在其中帮忙推广模型,负责代码编写的是Mustafa Aljadery。事发后,他们曾尝试联系Mustafa发布原创性声明,并提供训练代码,但到目前为止还未看到任何证据。在这份联合声明中,两人再次向原作者道歉,并称对未尽职尽责确保Llama3-V的独创性而感到失望,现已将所有对Llama3-V的引用都删除了。 两人联合发文道歉。被推为主要责任方的Mustafa,是团队中唯一的全职成员。其本硕毕业于南加利福尼亚大学,主攻深度学习和数学,是一名软件工程师。截至目前,Mustafa尚未发声。
# @8 z# F2 D" ~+ w
( B$ U+ y+ s: ], n8 B$ J  两名作者的解释,尚不能平息质疑。斯坦福人工智能实验室主任Christopher David Manning公开发文谴责这一抄袭行为,称两人借口推脱,是拒不认错的表现。7 H! y& t$ `7 j) v4 B9 z8 q
; w2 a4 A; b1 `1 G+ u
  此番随着原创者也下场打假,这场大模型抄袭风波将暂告一段落。
" q- g* g3 d1 u* j0 p
9 y; q+ M4 @# n6 \2 m




欢迎光临 传播网-传播网门户网站(www.icbw.com.cn) - 传播网! (https://icbw.com.cn/) Powered by Discuz! X3.1