[译] AI 学习精选集

作者 Leehyon HNG | 6132 字, 13 分钟 | 0 评论 | 2024-08-25 | 类别 Articles

llm, reading, transformer, translation

本文档为一份详尽的 AI 学习资源指南,原英文由 a16z 整理。这些资源不需要专业背景,旨在帮助初学者和希望快速掌握现代 AI 重要概念的人士。它汇集了论文、博客文章、课程和指南,覆盖了 AI 领域的广泛主题,适合各类读者和学习者。通过这些资源,用户可以建立对机器学习和 AI 的基本理解,从深度学习的基础知识到大学级别的课程,帮助大家在这一快速发展的领域中跟上最新进展。

Original: https://a16z.com/ai-canon/


简单介绍…

这些文章不需要特别的背景知识,可以帮助快速了解现代 AI 领域最重要的部分。

  • Software 2.0: 早在2017年 Andrej Karpathy 就清晰明了地指出为什么新的 AI 浪潮很重要。他的论述是,AI 是一种新的强大的计算机编程方式。随着 LLMs 的快速改进,这一观点被证明是有远见的,并且为 AI 市场的发展提供了一个很好的心理模型。
  • State of GPT: 这也是 Karpathy 的作品,是关于 ChatGPT/GPT 如何工作、如何使用,以及研究可能会走向何处的浅显易懂的解释。
  • What is ChatGPT doing … and why does it work?: 计算机科学家和企业家 Stephen Wolfram 从基本原理出发,给出了一个虽冗长但非常易读的解释,讲述了现代 AI 模型如何工作。跟随时间线了解从早期的神经网络到最近的 LLMs 和 ChatGPT。
  • Transformers, explained: 由 Dale Markowitz 撰写,简短而直接地回答了“LLM 是什么,如何工作?”,尽管它是关于 GPT-3 的,但仍适用于较新模型。
  • How Stable Diffusion works: 这是计算机视觉的类似物。Chris McCormick 给出了关于 Stable Diffusion 工作原理及一般文本生成图像模型的通俗解释。对于一个更加简单的介绍,请查看 StableDiffusion 版块的这个漫画

基础学习:神经网络、反向传播和嵌入

这些资源提供了对机器学习和 AI 基本概念的理解,从深度学习基础到 AI 专家的大学级课程。

解释者

课程

  • Stanford CS229: Andrew Ng 带你了解机器学习基础知识。
  • Stanford CS224N: Chris Manning 带你通过深度学习了解 NLP 和初代 LLMs。

技术深入:Transformer 和大语言模型(LLMs)

有无数的资源试图解释 LLMs 如何工作。以下是我们最喜欢的一些,面向各类读者和观众。

解释者

课程

  • Stanford CS25: Transformers United,一套关于 transformer 的在线研讨会。
  • Stanford CS324: 由 Percy Liang、Tatsu Hashimoto 和 Chris Re 教授授课的大语言模型课程,涵盖了 LLMs 的很多技术和非技术方面。

参考和评论

  • Predictive learning, NIPS 2016: 在这个早期的演讲中,Yann LeCun 强调了无监督学习作为大规模 AI 模型架构的重要元素。跳到19:20 看著名的蛋糕比喻,这仍然是现代 AI 的最佳心理模型之一。
  • AI for full-self driving at Tesla: Karpathy 的另一经典演讲,这次是关于特斯拉数据收集引擎的。从 8:35 开始,是关于长尾问题(在这个案例中是停车标志检测)为什么这么难的伟大 AI 论述之一。
  • The scaling hypothesis: LLMs 最意想不到的方面之一是,扩展(添加更多数据和计算)一直在提高准确性。GPT-3 是第一个清楚展示这一点的模型,而 Gwern 的文章很好地解释了这一点背后的直觉。
  • Chinchilla’s wild implications: 名义上是对重要的 Chinchilla 论文的解释(见下文),这篇文章探讨了 LLM 扩展中的大问题:我们是否快要用尽数据?这建立在上文的基础上,提供了扩展法则的新视角。
  • A survey of large language models: 对当前 LLMs 的全面分类,包括发展时间线、规模、训练策略、训练数据、硬件等。
  • Sparks of artificial general intelligence: Early experiments with GPT-4: 微软研究院对 GPT-4 的能力相对于人类智能的早期分析。
  • The AI revolution: How Auto-GPT unleashes a new era of automation and creativity: 关于 Auto-GPT 和一般 AI 代理的介绍。这项技术非常早期但重要,它使用互联网访问和自生成的子任务来解决特定的复杂问题或目标。
  • The Waluigi Effect: 名义上是对“ Waluigi 效应”(即,为什么“替身”会出现在 LLM 行为中)的解释,但主要有趣的是对 LLM 的提示理论的深入探讨。

实践指南:LLMs 构建

一个新的应用堆栈正在以 LLMs 为核心出现。尽管在这一主题上还没有很多正式教育,但我们挑选了一些我们发现的最有用的资源。

参考

  • Build a GitHub support bot with GPT3, LangChain, and Python: 现代 LLM 应用栈的最早期公共解释之一。虽然其中的一些建议已经过时,但在很多方面它开启了新 AI 应用的广泛采用和实验。
  • Building LLM applications for production: Chip Huyen 讨论了构建 LLM 应用的许多主要挑战,如何解决这些问题,以及哪些类型的用例最有意义。
  • Prompt Engineering Guide: 对于任何撰写 LLM 提示的人(包括应用开发人员),这是最全面的指南,包含一些流行模型的具体示例。对于更轻松、更对话式的处理方式,请尝试 Brex 的提示工程指南
  • Prompt injection: What’s the worst that can happen?: 提示注入是 LLM 应用中潜在的严重安全漏洞,目前尚无完美解决方案。Simon Willison 在这篇文章中给出了对此问题的权威描述(几乎 Simon 在 AI 上撰写的所有内容都很出色)。
  • OpenAI cookbook: 对于开发人员来说,这是 OpenAI API 工作的权威指南和代码示例的集合。它不断更新新的代码示例。
  • Pinecone learning center: 许多 LLM 应用基于向量搜索模式。尽管 Pinecone 的学习中心是品牌供应商内容,但它提供了一些最有用的关于如何在此模式下构建的教学。
  • LangChain docs: 作为 LLM 应用的默认编排层,LangChain 连接到几乎所有其他堆栈部分。因此他们的文档是真正参考整个栈及其各组成部分如何结合的。

课程

  • LLM Bootcamp: 由 Charles Frye、Sergey Karayev 和 Josh Tobin 教授的关于构建 LLM 基础应用的实用课程。
  • Hugging Face Transformers: 使用 Hugging Face 库中的开源 LLM 指南课程。

LLM 基准

  • Chatbot Arena: UC Berkeley 团队领导的流行 LLMs 的 Elo 排名系统,用户还可以通过头对头比较模型参与其中。
  • Open LLM Leaderboard: Hugging Face 排名,比较了开源 LLM 在许多基准和任务上的表现。

市场分析

我们都惊叹于生成 AI 的产出,但仍有许多问题尚待解答。哪些产品和公司将生存并发展?艺术家将何去何从?公司应如何利用它?它将如何影响实际工作和整个社会?以下是一些尝试回答这些问题的文章。

a16z 思考

里程碑式研究结果

我们今天看到的许多惊人 AI 产品都是由专家在大公司和领先大学内部进行的同样惊人的研究成果。最近,我们也看到了个人和开源社区的令人印象深刻的工作,他们将热门项目带入新的方向,例如创建自动化代理或将模型移植到更小的硬件上。

以下是许多这些论文和项目的集合,适合那些真正想深入研究生成 AI 的读者。对于研究论文和项目,我们还包括了附带的博客文章或网站链接(如有),这些往往能在更高层次上解释这些研究。而且我们还包括了最早的发表年份,这样你可以跟踪基础研究随时间的发展。

大语言模型

新模型

模型改进(如微调、检索、注意力)

图像生成模型

智能代理

其他数据模态

代码生成

视频生成

人类生物学和医学数据

音频生成

多维图像生成

相关文章

2024-10-29
[译] 完成的艺术
2024-10-24
[译] 什么是 YOLOv8?一份完全指南
Leehyon HNG

作者

Leehyon HNG

嵌入式软件工程师,安徽歙县人。躺不平的不想打工者,爱自由也拥抱规则,生命不止,折腾不休。在 GitHub 关注我,或在 Mastodon了解更多。