DoNews6月4日消息,近日斯坦福大学的AI研究团队的 Llama3-V 开源模型被指控抄袭了清华系明星创业公司面壁智能开发的开源模型“小钢炮”MiniCPM-Llama3-V 2.5,在网上引起热议。
6月3日上午,当事企业面壁智能的CEO李大海在朋友圈发文回应称:“我们对这件事深表遗憾。一方面感慨这也是一种受到国际团队认可的方式,另一方面呼吁大家共建开放、合作、有信任的社区环境。
《时代周报》记者就如何规避相关现象询问李大海,他称,(想规避)应该很难。“这主要是个学术道德问题。”
业内关于“套壳”的争议由来已久。有人认为,开源就该被充分利用;有人则表示,闭源才是自主研发,参考开源就是套壳。
实际上,如今所有大模型都源于2017年谷歌大脑团队发布的Transformer神经网络架构,这些包含模型架构和算法的设计决定了模型如何处理输入数据并生成输出。在此基础上,厂商在大规模的数据上对大模型进行预训练,来提高模型的泛化能力,加速后续的学习任务推进。
因神经网络架构和预训练这两项工作打造难度高、投入金额大、耗费数据量多,往往被称作大模型的内核。
原创文章,作者:网络小小,如若转载,请注明出处:https://www.sudun.com/ask/89530.html