### 1. 遇到问题的章节 / Affected Chapter Chapter2.1 ### 2. 具体问题描述 / Problem Description 在2.1.4 自注意力小节,代码部分为什么是attention(x,x,x)呢?我的理解是:这里QKV矩阵的输入X尽管相同,但是权重矩阵不同W_Q、W_K、W_V。而且attention函数的输入参数不是QKV矩阵吗,怎么到这里成了输入是x了? ### 3. 问题重现材料 / Reproduction Materials ```python # attention 为上文定义的注意力计算函数 attention(x, x, x) ``` ```建议修改: attention(XW_Q,XW_K,XW_V) ··· ### 确认事项 / Verification - [x] 此问题未在过往Issue中被报告过 / This issue hasn't been reported before