
人工智能實(shí)踐:Tensorflow培訓(xùn)
第一講 神經(jīng)網(wǎng)絡(luò)計(jì)算
1.7神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)鳶尾花分類
1.5TF2常用函數(shù)2
1.6鳶尾花數(shù)據(jù)集讀入
1.8Tensorflow2安裝
1.4TF2常用函數(shù)1
1.2神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)過程
1.1人工智能三學(xué)派
TensorFlow筆記:第一講神經(jīng)網(wǎng)絡(luò)計(jì)算
第一講 神經(jīng)網(wǎng)絡(luò)計(jì)算
1.3張量生成
PPT:第一講神經(jīng)網(wǎng)絡(luò)計(jì)算
第二講 神經(jīng)網(wǎng)絡(luò)優(yōu)化
TensorFlow筆記:第二講神經(jīng)網(wǎng)絡(luò)優(yōu)化
2.4損失函數(shù)
2.5緩解過擬合
PPT:第二講神經(jīng)網(wǎng)絡(luò)優(yōu)化
2.6優(yōu)化器
2.1預(yù)備知識(shí)
2.3激活函數(shù)
第二講 神經(jīng)網(wǎng)絡(luò)優(yōu)化
2.2復(fù)雜度學(xué)習(xí)率
第三講 神經(jīng)網(wǎng)絡(luò)八股
3.1搭建網(wǎng)絡(luò)八股sequential
3.2搭建網(wǎng)絡(luò)八股class
第三講 神經(jīng)網(wǎng)絡(luò)八股
TensorFlow筆記:第三講神經(jīng)網(wǎng)絡(luò)八股
3.3MNIST數(shù)據(jù)集
3.4FASHION數(shù)據(jù)集
PPT:第三講神經(jīng)網(wǎng)絡(luò)八股
第四講 網(wǎng)絡(luò)八股擴(kuò)展
4.5參數(shù)提取
4.7給圖識(shí)物
4.1搭建網(wǎng)絡(luò)八股總覽
PPT:第四講網(wǎng)絡(luò)八股擴(kuò)展
4.6acc&loss可視化
4.4斷點(diǎn)續(xù)訓(xùn)
TensorFlow筆記:第四講網(wǎng)絡(luò)八股擴(kuò)展
4.2自制數(shù)據(jù)集
第四講 網(wǎng)絡(luò)八股擴(kuò)展
4.3數(shù)據(jù)增強(qiáng)
第五講 卷積神經(jīng)網(wǎng)絡(luò)
5.1卷積計(jì)算過程
5.16經(jīng)典卷及網(wǎng)絡(luò)小結(jié)
5.12AlexNet
5.9CIFAR0數(shù)據(jù)集
PPT:第五講卷積神經(jīng)網(wǎng)絡(luò)
第五講 卷積神經(jīng)網(wǎng)絡(luò)
5.14InceptionNet
5.10卷積神經(jīng)網(wǎng)絡(luò)搭建示例
5.13VGGNet
5.4TF描述卷積計(jì)算層
5.8卷積神經(jīng)網(wǎng)絡(luò)
5.2感受野
5.15ResNet
5.11LeNet
5.7舍棄
5.3全零填充
5.5批標(biāo)準(zhǔn)化
5.6池化
TensorFlow筆記:第五講卷積神經(jīng)網(wǎng)絡(luò)
第六講 循環(huán)神經(jīng)網(wǎng)絡(luò)
6.7循環(huán)計(jì)算過程II
6.10字母預(yù)測(cè)Embedding_1pre1
6.9Embedding編碼
6.3循環(huán)計(jì)算層
TensorFlow筆記:第六講循環(huán)神經(jīng)網(wǎng)絡(luò)
6.4TF描述循環(huán)計(jì)算層
6.8字母預(yù)測(cè)onehot_4pre1
6.2循環(huán)核時(shí)間步展開
6.6字母預(yù)測(cè)onehot_1pre1
6.14GRU實(shí)現(xiàn)股票預(yù)測(cè)(GRU計(jì)算過程_TF描述GRU層)
6.1循環(huán)核
6.11字母預(yù)測(cè)Embedding_4pre1
6.13LSTM實(shí)現(xiàn)股票預(yù)測(cè)(LSTM計(jì)算過程_TF描述LSTM層)
第六講 循環(huán)神經(jīng)網(wǎng)絡(luò)
PPT:第六講循環(huán)神經(jīng)網(wǎng)絡(luò)
6.5循環(huán)計(jì)算過程I
6.12RNN實(shí)現(xiàn)股票預(yù)測(cè)