Skip to content

Latest commit

 

History

History
44 lines (24 loc) · 3.22 KB

230318exp rec.md

File metadata and controls

44 lines (24 loc) · 3.22 KB

230318实验记录

实验进度

论文源码

本周进展

这周主要是出现很多环境配置问题一直被卡着(已解决),记录如下:

  • 要注意tensorflow, cuda,cudnn的三个版本对应问题,要不然会出很多莫名其妙的问题。除了tensorflow本身还有tensorflow-text之类相关包的版本问题。

  • 查看本地cuda和cudnn版本问题,不一定要使用目前GPU能支持的最高CUDA版本

    https://blog.csdn.net/matrix273/article/details/103534991

    命令行:conda search cudatoolkit/conda search cudnn

    cudnn的官网版本对应说明:https://developer.nvidia.com/rdp/cudnn-archive

  • 设置路径的问题,解决了源代码中库无法引用的问题,加入./~bashrc便于设置路径

    alias lwxflan = 'source /data/home/sjzn/anaconda3/envs/lwx_flan/bin/activate.d/lwx_flan.sh'

目前可以正常运行源码。

后续实验设计

更改数据集的设置,尝试对于instruction和goal的task相似性对于performance的影响进行初步验证。即,使用论文中没有使用的cluster进行微调。然而具体task的数量以及dataset大小不一致,正在思考如何调整、需要哪些参数一致、如何控制变量。

https://cdn.nlark.com/yuque/0/2023/png/32667180/1679120822265-be11b5a3-1451-44aa-b139-d392850d415a.png#averageHue=%23e2ddc8&clientId=ucaa35758-9d02-4&from=paste&height=358&id=u3c930530&name=image.png&originHeight=896&originWidth=1108&originalType=binary&ratio=2.5&rotation=0&showTitle=false&size=528214&status=done&style=none&taskId=u521b0b40-5340-467f-8e83-bcbb744fae0&title=&width=443.2

实验目的:验证Instruction tune task的任务类型对于模型在goal task上的performance的影响

实验设计:人工判断任务的“距离”,改变tune task种类进行消融实验。文中认为paraphrase和NLI任务很相近,故而把goal设置为NLI任务,在tune过程中保证种类数量的一致,将实验组(即下方)中的task随机剔除一组替换为paraphrase,用随机采样的方式保证对照组和实验组datasets的数量统一(在此情境下不考虑dataset的大小问题)

tune task goal task result
summarization, translation, reding comprehension,sentiment, data to text, coreference, conv. QA NLI F1-score
summarization, translation, reding comprehension,sentiment, data to text, coreference, conv. QA, paraphrase NLI F1-score

模型距离实验

打算尝试聚类进知识图谱的方法(周报中Task cluster embedding method)。知识图谱先前我只接触过最最初步的概念,从未动手搭建or跑通开源代码,故而打算将这个实验滞后,先用论文源码验证猜想的正确性。