这周主要是出现很多环境配置问题一直被卡着(已解决),记录如下:
-
要注意tensorflow, cuda,cudnn的三个版本对应问题,要不然会出很多莫名其妙的问题。除了tensorflow本身还有tensorflow-text之类相关包的版本问题。
-
查看本地cuda和cudnn版本问题,不一定要使用目前GPU能支持的最高CUDA版本
https://blog.csdn.net/matrix273/article/details/103534991
命令行:conda search cudatoolkit/conda search cudnn
cudnn的官网版本对应说明:https://developer.nvidia.com/rdp/cudnn-archive
-
设置路径的问题,解决了源代码中库无法引用的问题,加入./~bashrc便于设置路径
alias lwxflan = 'source /data/home/sjzn/anaconda3/envs/lwx_flan/bin/activate.d/lwx_flan.sh'
目前可以正常运行源码。
更改数据集的设置,尝试对于instruction和goal的task相似性对于performance的影响进行初步验证。即,使用论文中没有使用的cluster进行微调。然而具体task的数量以及dataset大小不一致,正在思考如何调整、需要哪些参数一致、如何控制变量。
实验目的:验证Instruction tune task的任务类型对于模型在goal task上的performance的影响
实验设计:人工判断任务的“距离”,改变tune task种类进行消融实验。文中认为paraphrase和NLI任务很相近,故而把goal设置为NLI任务,在tune过程中保证种类数量的一致,将实验组(即下方)中的task随机剔除一组替换为paraphrase,用随机采样的方式保证对照组和实验组datasets的数量统一(在此情境下不考虑dataset的大小问题)
tune task | goal task | result |
---|---|---|
summarization, translation, reding comprehension,sentiment, data to text, coreference, conv. QA | NLI | F1-score |
summarization, translation, reding comprehension,sentiment, data to text, coreference, conv. QA, paraphrase | NLI | F1-score |
打算尝试聚类进知识图谱的方法(周报中Task cluster embedding method)。知识图谱先前我只接触过最最初步的概念,从未动手搭建or跑通开源代码,故而打算将这个实验滞后,先用论文源码验证猜想的正确性。