站长之家(chinaz.com)5月21日 消息:最近,一个教你从头开始实现的在网上爆火,吸引了无数开发者的关注。知名ai专家andrej karpathy一键三连(点赞、转发、评论),这个项目在社交媒体x上的转赞收藏量超过6.8k,github上更是收获了超过2k的星标。
这个代码库的作者是nishant aklecha(以下简称“纳哥”),他详细解释了llama3模型的实现过程,包括注意力机制中多个头的矩阵乘法、位置编码及所有中间层的详细展开和解释。换句话说,他解释了每行代码的功能。
karpathy称赞纳哥是个“有品的人”,并指出这样的详细展开比起模块相互嵌套和调用时更容易理解每一步具体在做什么。
在运行纳哥提供的文件前,需要预先下载meta官方提供的llama3模型权重。纳哥建议使用karpathy的简洁版bpe代码进行分词。字节级(byte-level)bpe算法在utf-8编码的字符串上运行,广泛应用于大模型分词。karpathy提供的代码库包含两个分词器,都能在给定文本上训练分词器的词汇表和合并规则、将文本编码为token、将token解码为文本。
读取模型文件的方式通常取决于模型类的编写方式以及类中变量的命名。但由于纳哥是从头开始实现llama3,所以将逐个张量地读取文件内容,通过此配置推断出模型的结构和参数信息。
纳哥详细展示了如何将token转换为高维的嵌入表示,并进行rms归一化。然后,他构建了transformer的第一层,进行归一化处理和注意力头的加载。接着,纳哥详细解释了query、key和value向量的生成和操作,包括位置编码的使用和注意力得分矩阵的生成与掩码处理。最后,他展示了如何将这些向量进行矩阵乘法,得到最终的注意力值。
接下来,纳哥对每个注意力头执行相同的数学运算,并将所有注意力得分合并成一个大的qkv_attention矩阵。然后通过矩阵乘法获得注意力机制后的嵌入值,并将其添加到原始的token嵌入中,进行归一化处理,并通过一个前馈神经网络进行处理。
纳哥使用最终的嵌入预测下一个token值,并希望预测结果是42,这个数值对应《银河系漫游指南》中“生命、宇宙及一切的终极问题的答案”。模型预测的token编号为2983,对应的正是42。
nishant aklecha是glaive ai的研究员,负责构建和改进定制语言模型平台,曾任职于摩根士丹利,负责训练和微调大语言模型。他还和朋友共同创立了一个研究实验室a10,其目标是让研究变得更加触手可及。
除了发布这个代码库,nishant还上传了一个youtube视频详细解释代码库内容,并撰写了一篇博客详解潜在一致性模型(lcm)。
感兴趣的开发者可以访问github链接了解更多信息: