└─ 深度学习必修课:进击AI算法工程师 ->
  ├─ 096.16-1 InstructGPT模型.mp4 - 77M
  ├─ 091.15-2 词义搜索和句意表示.mp4 - 44.8M
  ├─ 085.14-1 自定义数据加载.mp4 - 48.7M
  ├─ 089.14-5 项目实战:猫狗大战.mp4 - 64.1M
  ├─ 086.14-2 图像数据增强.mp4 - 33.4M
  ├─ 084.13-6 图像生成.mp4 - 56.1M
  ├─ 092.15-3 预训练模型.mp4 - 55M
  ├─ 087.14-3 迁移学习.mp4 - 31.8M
  ├─ 093.15-4 Hugging Face库介绍.mp4 - 36.4M
  ├─ 083.13-5 Diffusion扩散模型.mp4 - 77.6M
  ├─ 072.11-7 Transformer代码实现.mp4 - 38M
  ├─ 076.12-4 ViT模型.mp4 - 31M
  ├─ 066.11-1 什么是注意力机制.mp4 - 43.4M
  ├─ 082.13-4 生成对抗网络.mp4 - 39.9M
  ├─ 067.11-2 注意力的计算.mp4 - 57.5M
  ├─ 074.12-2 GPT系列模型.mp4 - 79.6M
  ├─ 073.12-1BERT模型.mp4 - 50.2M
  ├─ 075.12-3 T5模型.mp4 - 37.8M
  ├─ 079.13-1 蒙特卡洛方法.mp4 - 28.5M
  ├─ 078.12-6 GPT模型代码实现.mp4 - 38M
  ├─ 080.13-2 变分推断.mp4 - 40.8M
  ├─ 068.11-3 键值对注意力和多头注意力.mp4 - 24.1M
  ├─ 077.12-5 Swin Transformer模型.mp4 - 54.9M
  ├─ 081.13-3 变分自编码器.mp4 - 56.2M
  ├─ 070.11-5 注意力池化及代码实现.mp4 - 29.6M
  ├─ 065.10-9 机器翻译简单代码实现.mp4 - 39.3M
  ├─ 098.16-3 DALL-E模型.mp4 - 54.3M
  ├─ 071.11-6 Transformer模型.mp4 - 43.9M
  ├─ 069.11-4 自注意力机制.mp4 - 30.2M
  ├─ 100.16-5 下一步学习的建议.mp4 - 18.5M
  ├─ 097.16-2 CLIP模型.mp4 - 37.7M
  ├─ 099.16-4 深度学习最新发展趋势分析.mp4 - 37M
  ├─ 088.14-4 经典视觉数据集.mp4 - 37.3M
  ├─ 062.10-6 编码器-解码器网络.mp4 - 41.1M
  ├─ 052.9-2 文本数据预处理.mp4 - 60M
  ├─ 004.2-1 线性代数.mp4 - 56.4M
  ├─ 053.9-3 循环神经网络.mp4 - 48.2M
  ├─ 032.6-6 小批量梯度下降法.mp4 - 32M
  ├─ 060.10-4 长短期记忆网络.mp4 - 43.1M
  ├─ 050.8-6 DenseNet.mp4 - 58.5M
  ├─ 055.9-5 循环神经网络代码实现.mp4 - 27.8M
  ├─ 019.5-1 训练的常见问题.mp4 - 33.8M
  ├─ 056.9-6 RNN的长期依赖问题.mp4 - 37.7M
  ├─ 013.4-3 前向传播和反向传播.mp4 - 39.5M
  ├─ 006.2-3 概率.mp4 - 59.2M
  ├─ 090.15-1 词嵌入和word2vec.mp4 - 33.3M
  ├─ 045.8-1 AlexNet.mp4 - 49.6M
  ├─ 003.1-3 课程使用的技术栈.mp4 - 12.7M
  ├─ 039.7-1 全连接层问题.mp4 - 38.5M
  └─ 046.8-2 VGGNet.mp4 - 47.7M

发表回复

后才能评论