机器学习 by 李宏毅(8-2)
本文字数:
5.8k
阅读时长 ≈
5 分钟
Flow-based model
机器学习 by 李宏毅(8-1)
本文字数:
4.1k
阅读时长 ≈
4 分钟
Unsupervised Learning - Deep Generative Model
this post will tell you a bit more about generative models: what they are, why they are important, and where they might be going.
通过 pmset 工具管理 masOS 睡眠
发表于
分类于
MacOS
本文字数:
2.8k
阅读时长 ≈
3 分钟
当我们不使用 Mac 时,一段时候后,系统先进入 sleep
状态,然后根据 hibernatemode
的模式,决定将镜像数据写入内存还是硬盘。
Deep Learning with PyTorch -- Part 1 Core PyTorch (C1-C3)
本文字数:
58k
阅读时长 ≈
52 分钟
Chaper 1 Introducing deep learning and the PyTorch Library
That general class of algorithms we’re talking about falls under the AI subcategory of deep learning, which deals with training mathematical entities named deep neural net- works by presenting instructive examples.
机器学习 by 李宏毅(7-2)
本文字数:
3.2k
阅读时长 ≈
3 分钟
机器学习 by 李宏毅(7-1)
本文字数:
7.8k
阅读时长 ≈
7 分钟
生成模型--Generative Model
NetWork as Generater
把 network 当作generator 使用, 特别的地方是现在 network 的输入加上一个random 的 variable Z ,Z是从某一个distribution sample 出来的。
Learning Summary 3
本文字数:
1.8k
阅读时长 ≈
2 分钟
Learning summary 3
公开课
Machine Learning 2021 Spring:
- Spatial Transformer Layer (使CNN 具有旋转平移不变性)
- RNN and LSTM
机器学习 by 李宏毅(6)
本文字数:
3.8k
阅读时长 ≈
3 分钟
Tranformer
本质上是 sequence-to-sequence 的 model
sequence2sequence:Input a sequence, output a sequence (The output length is determined by model)