收集和整理与AI学习相关的资源,包括但不限于教程、代码示例、论文、书籍推荐等。无论你是AI领域的新手还是有一定经验的开发者,都希望这个仓库能对你有所帮助。
模型 | 链接 | 说明 | 推荐星级 |
---|---|---|---|
LLaMA2 | LLaMA2 | Meta推出的开源大语言模型,适用于研究与应用。 | ⭐⭐⭐⭐ |
GPT-J | GPT-J | EleutherAI开发的开源大语言模型,性能接近GPT-3。 | ⭐⭐⭐⭐ |
Alpaca | Alpaca | 基于LLaMA的指令调优模型,适用于交互式应用。 | ⭐⭐⭐⭐ |
OpenAssistant | OpenAssistant | LAION开发的开源助手模型,注重对话能力。 | ⭐⭐⭐⭐ |
Vicuna | Vicuna | 基于LLaMA的对话优化模型,适用于交互式应用。 | ⭐⭐⭐⭐ |
GPT-NeoX | GPT-NeoX | EleutherAI开发的开源大语言模型,支持大规模训练。 | ⭐⭐⭐⭐ |
产品名称 | 网址 |
---|---|
DeepSeek | https://chat.deepseek.com/ |
ChatGPT | https://chat.openai.com/ |
Bard | https://bard.google.com/ |
Claude | https://www.anthropic.com/ |
文心一言 | https://yiyan.baidu.com/ |
通义千问 | https://tongyi.aliyun.com/ |
讯飞星火 | https://xinghuo.xfyun.cn/ |
智谱清言 | https://chatglm.cn/ |
AI文本人性化 | https://humanize.im/zh-CN |
腾讯元器 | https://yuanqi.tencent.com/agent-shop |
Napkin | https://chat01.ai/?ref=nyi8wifx |
Chat01.ai | https://www.napkin.ai/ |
教程 | 链接 | 说明 | 推荐星级 |
---|---|---|---|
面向初学者的人工智能课程 | Link | 微软推出的面向初学者的人工智能课程 | ⭐⭐⭐ |
LLMCookbook | LLMCookbook | 面向开发者的大模型系列教程,涵盖API使用与应用开发。 | ⭐⭐⭐⭐ |
Hugging Face 教程 | Hugging Face | 提供丰富的NLP模型使用与训练教程。 | ⭐⭐⭐ |
Stanford CS224n | CS224n | 斯坦福大学的自然语言处理课程,涵盖最新研究进展。 | ⭐⭐⭐⭐ |
PyTorch 官方教程 | PyTorch Tutorials | 官方提供的PyTorch使用与深度学习教程。 | ⭐⭐⭐ |
资料名称 | 链接 | 说明 | 推荐星级 |
---|---|---|---|
TensorFlow | TensorFlow | Google开发的开源深度学习框架,支持多种平台。 | ⭐⭐⭐⭐ |
PyTorch | PyTorch | Facebook开发的深度学习框架,灵活性高,适合研究。 | ⭐⭐⭐⭐ |
Hugging Face Transformers | Transformers | 提供丰富的预训练模型与工具,便于NLP任务开发。 | ⭐⭐⭐⭐ |
OpenCV | OpenCV | 计算机视觉库,提供丰富的图像处理功能。 | ⭐⭐⭐ |
资料名称 | 链接 | 说明 | 推荐星级 |
---|---|---|---|
2024年值得注意的人工智能研究论文(一) | Link | 2024年值得注意的人工智能研究论文(一) | ⭐⭐⭐ |
Attention Is All You Need | 论文 | 提出Transformer模型,是现代大语言模型的基础。 | ⭐⭐⭐ |
BERT: Pre-training of Deep Bidirectional Transformers | 论文 | 提出BERT模型,开启了预训练语言模型的新篇章。 | ⭐⭐⭐ |
GPT-3: Language Models are Few-Shot Learners | 论文 | 描述GPT-3模型的架构与能力,展示其在多任务中的表现。 | ⭐⭐⭐ |
Vision Transformer (ViT) | 论文 | 将Transformer架构应用于计算机视觉任务。 | ⭐⭐ |
YOLOv4: Optimal Speed and Accuracy | 论文 | 提出YOLOv4模型,提升了目标检测的速度与准确性。 | ⭐⭐ |
Reinforcement Learning with Unsupervised Auxiliary Tasks | 论文 | 探讨在强化学习中引入辅助任务以提升性能。 | ⭐⭐ |
Self-Attention Generative Adversarial Networks (SAGAN) | 论文 | 在GAN中引入自注意力机制,提升生成效果。 | ⭐⭐ |
CLIP: Learning Transferable Visual Models | 论文 | 结合图像与文本的对比学习模型,提升多模态理解能力。 | ⭐⭐⭐ |
AlphaFold: Using AI for Scientific Discovery | 论文 | DeepMind开发的蛋白质结构预测模型,突破性成果。 | ⭐⭐⭐ |
Sparse Transformer | 论文 | 提出稀疏注意力机制,提升Transformer的效率。 | ⭐⭐⭐ |
T5: Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer | 论文 | 提出T5模型,将所有NLP任务统一为文本到文本的框架。 | ⭐⭐⭐ |
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context | 论文 | 提出Transformer-XL,支持更长上下文的语言模型。 | ⭐⭐⭐ |
教程 | Link | 说明 | 推荐星级 | 备注 |
---|---|---|---|---|
E-mail:[email protected]
WeChat: 扯编程的淡