一周涨 15k Star 的开源项目「GitHub 热点速览」
你训练大语言模型(LLM)用的什么框架?有没有想过不用框架训练 GPT-2? GitHub 上就有这么一位大神(Andrej Karpathy),他仅用大约 1k 行的 C 代码就完成了 GPT-2 模型的训练,代码纯手撸、不依赖任何机器学习框架,作者这么做仅仅是觉得很有趣。尽管这个项目(llm.c
作者:削微寒
扫描左侧的二维码可以联系到a56爆大奖在线娱乐
本作品采用署名-非商业性使用-禁止演绎 4.0 国际 进行许可。