欢迎来到人工智能课程主页!
在这里,我们将带你系统学习人工智能的核心理论与技术,通过实践与理论结合,掌握未来的科技趋势。
- 掌握人工智能的基本概念和主要技术。
- 学会构建简单的机器学习与深度学习模型。
- 能够应用人工智能技术解决实际问题,如图像分类、自然语言处理和大模型推理。
-
基础知识
- 人工智能的定义、发展历程与应用场景。
- 数学基础:线性代数、概率论、微积分。
- 环境搭建:Python、Jupyter、Pytorch。
- 基础机器学习算法:多层感知机、前向与反向传播、线性回归、逻辑回归、梯度下降等。
-
卷积神经网络(CNN)
- 卷积操作的原理与应用。
- 卷积、池化、激活函数、全连接层的工作原理。
- 常见的卷积网络架构:LeNet、AlexNet、ResNet 等。
- 实战项目:基于 CIFAR-10 数据集的图像分类。
-
循环神经网络(RNN)
- 时间序列数据建模的原理。
- RNN 的结构及其限制:梯度消失问题。
- LSTM(长短期记忆网络)和 GRU(门控循环单元)的改进。
- 应用场景:翻译、情感分析、时间序列预测、自然语言生成。
- 实战项目:机器翻译。
-
Transformer
- 自注意力机制(Self-Attention)的原理。
- Transformer 的核心模块:多头注意力、位置编码。
- Transformer 的优势:并行计算与长序列建模能力。
- 常见模型架构:BERT、GPT。
-
大模型
- 大语言模型的定义与发展。
- 参数规模对模型性能的影响。
- 模型微调与推理(Fine-tuning & Inference)。
- 典型应用:ChatGPT、DALL·E、Stable Diffusion 等。
在学习此课程前,你需要具备以下基础知识:
- 数学基础:线性代数、微积分、概率论与统计学。
- 编程技能:熟悉 Python 编程,了解 NumPy 和 Pandas 的基本使用。
- 基础算法:理解常见排序算法和数据结构(如数组、链表、树)。
完成以下程序题,以验证你的基础知识。如果你成功解决,你已经准备好开始学习人工智能课程。
背景知识
二维卷积是一种数学操作,用于从图像或二维数据中提取局部特征。
它通过将一个“卷积核”(小矩阵)在输入矩阵上滑动,对覆盖的区域进行逐元素相乘并求和,生成输出矩阵。
描述:
请编写一个函数 conv2d(input, kernel)
来实现二维卷积操作,其中:
- input 是一个二维列表,表示输入矩阵(例如图像数据)。
- kernel 是一个二维列表,表示卷积核(例如滤波器)。
- 卷积操作需要支持无填充模式,即卷积结果的尺寸应比输入矩阵小。
要求:
- 使用滑动窗口的方式实现二维卷积。
- 卷积的每一个位置计算方式为:
out[i][j]=m=0∑kh−1n=0∑kw−1input[i+m][j+n]⋅kernel[m][n]
其中 kh 和 kw 分别是卷积核的高和宽。
- 函数应返回卷积后的二维列表。
- 不使用任何外部库(例如 NumPy、SciPy、PyTorch、TF 等)。
- 如果 input 的尺寸小于 kernel,返回 "Invalid dimensions"。
函数签名:
def conv2d(input, kernel):
"""
Parameters:
input (list of list of int/float): 输入二维矩阵
kernel (list of list of int/float): 卷积核矩阵
Returns:
list of list of float: 卷积结果矩阵
or str: 如果维度不符合要求,返回 "Invalid dimensions"
"""
pass
示例:
input = [
[1, 2, 3, 4],
[5, 6, 7, 8],
[9, 10, 11, 12],
[13, 14, 15, 16]
]
kernel = [
[1, 0],
[0, -1]
]
print(conv2d(input, kernel))
# 输出:
# [[-5, -5, -5],
# [-5, -5, -5],
# [-5, -5, -5]]
完成代码后运行,如果结果正确,即表明你已掌握基本的数学和编程能力,可以开始学习本课程。
-
基础篇
-
进阶篇
-
优秀的开源项目
-
通过深度学习入门学习视频入门
- 从基础知识开始,逐步学习人工智能的概念与技术。
- 按照视频中的代码示例进行动手操作,确保理论与实践相结合。
-
边学习边实践
- 每看完一个视频模块,立即尝试复现视频中的代码。
- 在实际操作中理解每一段代码的作用和意义。
-
查阅 PyTorch 官方文档
如果你在学习过程中有任何疑问,欢迎通过邮件联系:
📧 联系邮箱: xinchen.cai@hotmail.com
我们会尽快回复你!感谢你的理解与支持。