数学 0-1:数据科学和机器学习的概率
Math 0-1: Probability for Data Science & Machine Learning
人工智能、深度学习和 Python 程序员的休闲指南
您将会学到
-
条件概率、独立性和贝叶斯规则
-
使用维恩图和概率树可视化概率问题
-
离散随机变量和分布:伯努利、分类、二项式、几何、泊松
-
连续随机变量和分布:均匀、指数、正态(高斯)、拉普拉斯、伽马、贝塔
-
累积分布函数 (CDF)、概率质量函数 (PMF)、概率密度函数 (PDF)
-
联合分布、边际分布和条件分布
-
多元分布,随机向量
-
随机变量的函数、随机变量的总和、卷积
-
期望值、期望值、平均值和方差
-
偏度、峰度和弯矩
-
协方差和相关性、协方差矩阵、相关矩阵
-
力矩生成函数 (MGF) 和特征函数
-
马尔可夫、切比雪夫、柯西-施瓦茨、詹森等关键不等式
-
概率收敛,分布收敛,几乎肯定收敛
-
大数定律和中心极限定理 (CLT)
-
概率在机器学习、数据科学和强化学习中的应用
要求
-
学院 / 大学水平的微积分(适用于课程的大部分部分)
-
学院/大学水平的线性代数(针对课程的某些部分)
描述
常见情况:您尝试进入机器学习和数据科学领域,但数学太多了。
要么你从未学过这门数学,要么你学过它很久了,你已经忘记了这一切。
你是做什么工作的?
好吧,我的朋友们,这就是我创建这门课程的原因。
概率是数据科学和机器学习最重要的数学先决条件之一。它需要从根本上了解我们所做的一切,从最新的 LLMs ChatGPT 到 Stable Diffusion 和 Midjourney 等扩散模型,再到统计学(我喜欢称之为“概率第 2 部分”)。
马尔可夫链是概率中的一个重要概念,构成了隐马尔可夫模型(应用于语音识别、DNA 分析和股票交易)和马尔可夫决策过程或 MDP(强化学习的基础)等流行模型的基础。
机器学习(统计学习)本身具有概率基础。特定模型,如线性回归、K-Means 聚类、主成分分析和神经网络,都使用概率。
简而言之,概率是无法避免的!
如果您想进行机器学习,而不仅仅是从博客和教程中复制库代码,您必须知道概率。
本课程将涵盖您在本科水平的概率课上学到的所有内容(可能更多)。这包括随机变量和随机向量、离散和连续概率分布、随机变量函数、多元分布、期望、生成函数、大数定律和中心极限定理。
最重要的定理将从头开始推导。不用担心,只要满足先决条件,它们就不会难理解。这将确保您在该学科方面拥有最坚实的基础。不再记住“规则”,只是为了将来错误/不适当地应用它们!本课程将为您提供对概率的深刻理解,以便您可以正确有效地将其应用于数据科学、机器学习等领域。
准备好了吗?
我们走吧!
建议的先决条件:
-
微分微积分、积分微积分和向量微积分
-
线性代数
-
对大学/学院水平的数学总体熟悉程度
此课程面向哪些人:
- 对数据科学感到好奇的 Python 开发人员和软件开发人员
- 对机器学习和数据科学感兴趣但尚未学习过大学数学的专业人士
- 对 ML 和 AI 感兴趣但发现他们跟不上数学的学生
- 想要在学习人工智能之前复习概率的前 STEM 学生
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
评论(0)