中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

英文教程太難啃?這里有一份TensorFlow2.0中文教程

2019-05-05    來(lái)源:raincent

容器云強(qiáng)勢(shì)上線!快速搭建集群,上萬(wàn)Linux鏡像隨意使用

今年 3 月份,谷歌在 Tensorflow Developer Summit 2019 大會(huì)上發(fā)布 TensorFlow 2.0 Alpha 版。作為當(dāng)前最為流行的深度學(xué)習(xí)框架,2.0 Alpha 版的正式發(fā)布引人關(guān)注。近兩個(gè)月,網(wǎng)上已經(jīng)出現(xiàn)了大量 TensorFlow 2.0 英文教程。在此文章中,本文為大家推薦一個(gè)持續(xù)更新的中文教程,以便大家學(xué)習(xí)。

 

 

雖然,自 TensorFlow 2.0 發(fā)布以來(lái),我們總是能夠聽(tīng)到「TensorFlow 2.0 就是 keras」、「說(shuō)的很好,但我用 PyTorch」類似的吐槽。但毋庸置疑,TensorFlow 依然是當(dāng)前最主流的深度學(xué)習(xí)框架(感興趣的讀者可查看機(jī)器之心文章:2019 年,TensorFlow 被拉下馬了嗎?)。

整體而言,為了吸引用戶,TensorFlow 2.0 從簡(jiǎn)單、強(qiáng)大、可擴(kuò)展三個(gè)層面進(jìn)行了重新設(shè)計(jì)。特別是在簡(jiǎn)單化方面,TensorFlow 2.0 提供更簡(jiǎn)化的 API、注重 Keras、結(jié)合了 Eager execution。

過(guò)去一段時(shí)間,機(jī)器之心為大家編譯介紹了部分英文教程,例如:

如何在 TensorFlow 2.0 中構(gòu)建強(qiáng)化學(xué)習(xí)智能體

TensorFlow 2.0 到底怎么樣?簡(jiǎn)單的圖像分類任務(wù)探一探

此文章中,機(jī)器之心為大家推薦一個(gè)持續(xù)更新的中文教程,方便大家更系統(tǒng)的學(xué)習(xí)、使用 TensorFlow 2.0 :

知乎專欄地址:https://zhuanlan.zhihu.com/c_1091021863043624960

Github 項(xiàng)目地址:https://github.com/czy36mengfei/tensorflow2_tutorials_chinese

該教程是 NLP 愛(ài)好者 Doit 在知乎上開(kāi)的一個(gè)專欄,由作者從 TensorFlow2.0 官方教程的個(gè)人學(xué)習(xí)復(fù)現(xiàn)筆記整理而來(lái)。作者將此教程分為了三類:TensorFlow 2.0 基礎(chǔ)教程、TensorFlow 2.0 深度學(xué)習(xí)實(shí)踐、TensorFlow 2.0 基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)。

以基礎(chǔ)教程為例,作者整理了 Keras 快速入門教程、eager 模式、Autograph 等。目前為止,該中文教程已經(jīng)包含 20 多篇文章,作者還在持續(xù)更新中,感興趣的讀者可以 follow。

 

 

 

 

該中文教程當(dāng)前目錄

以下是作者整理的「Keras 快速入門」教程內(nèi)容。

Keras 快速入門

Keras 是一個(gè)用于構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的高階 API。它可用于快速設(shè)計(jì)原型、高級(jí)研究和生產(chǎn)。

keras 的 3 個(gè)優(yōu)點(diǎn): 方便用戶使用、模塊化和可組合、易于擴(kuò)展

1. 導(dǎo)入 tf.keras

tensorflow2 推薦使用 keras 構(gòu)建網(wǎng)絡(luò),常見(jiàn)的神經(jīng)網(wǎng)絡(luò)都包含在 keras.layer 中 (最新的 tf.keras 的版本可能和 keras 不同)

import tensorflow as tf
from tensorflow.keras import layers
print(tf.__version__)
print(tf.keras.__version__)

2. 構(gòu)建簡(jiǎn)單模型

2.1 模型堆疊

最常見(jiàn)的模型類型是層的堆疊:tf.keras.Sequential 模型

model = tf.keras.Sequential()
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))

2.2 網(wǎng)絡(luò)配置

tf.keras.layers 中網(wǎng)絡(luò)配置:

activation:設(shè)置層的激活函數(shù)。此參數(shù)由內(nèi)置函數(shù)的名稱指定,或指定為可調(diào)用對(duì)象。默認(rèn)情況下,系統(tǒng)不會(huì)應(yīng)用任何激活函數(shù)。

kernel_initializer 和 bias_initializer:創(chuàng)建層權(quán)重(核和偏差)的初始化方案。此參數(shù)是一個(gè)名稱或可調(diào)用對(duì)象,默認(rèn)為 "Glorot uniform" 初始化器。

kernel_regularizer 和 bias_regularizer:應(yīng)用層權(quán)重(核和偏差)的正則化方案,例如 L1 或 L2 正則化。默認(rèn)情況下,系統(tǒng)不會(huì)應(yīng)用正則化函數(shù)。

layers.Dense(32, activation='sigmoid')
layers.Dense(32, activation=tf.sigmoid)
layers.Dense(32, kernel_initializer='orthogonal')
layers.Dense(32, kernel_initializer=tf.keras.initializers.glorot_normal)
layers.Dense(32, kernel_regularizer=tf.keras.regularizers.l2(0.01))
layers.Dense(32, kernel_regularizer=tf.keras.regularizers.l1(0.01))

3. 訓(xùn)練和評(píng)估

3.1 設(shè)置訓(xùn)練流程

構(gòu)建好模型后,通過(guò)調(diào)用 compile 方法配置該模型的學(xué)習(xí)流程:

model = tf.keras.Sequential()
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
loss=tf.keras.losses.categorical_crossentropy,
metrics=[tf.keras.metrics.categorical_accuracy])

3.2 輸入 Numpy 數(shù)據(jù)

import numpy as np

train_x = np.random.random((1000, 72))
train_y = np.random.random((1000, 10))

val_x = np.random.random((200, 72))
val_y = np.random.random((200, 10))

model.fit(train_x, train_y, epochs=10, batch_size=100,
validation_data=(val_x, val_y))

3.3tf.data 輸入數(shù)據(jù)

dataset = tf.data.Dataset.from_tensor_slices((train_x, train_y))
dataset = dataset.batch(32)
dataset = dataset.repeat()
val_dataset = tf.data.Dataset.from_tensor_slices((val_x, val_y))
val_dataset = val_dataset.batch(32)
val_dataset = val_dataset.repeat()

model.fit(dataset, epochs=10, steps_per_epoch=30,
validation_data=val_dataset, validation_steps=3)

3.4 評(píng)估與預(yù)測(cè)

test_x = np.random.random((1000, 72))
test_y = np.random.random((1000, 10))
model.evaluate(test_x, test_y, batch_size=32)
test_data = tf.data.Dataset.from_tensor_slices((test_x, test_y))
test_data = test_data.batch(32).repeat()
model.evaluate(test_data, steps=30)
# predict
result = model.predict(test_x, batch_size=32)
print(result)

4. 構(gòu)建高級(jí)模型

4.1 函數(shù)式 api

tf.keras.Sequential 模型是層的簡(jiǎn)單堆疊,無(wú)法表示任意模型。使用 Keras 函數(shù)式 API 可以構(gòu)建復(fù)雜的模型拓?fù),例如?/p>

多輸入模型,
多輸出模型,
具有共享層的模型(同一層被調(diào)用多次),
具有非序列數(shù)據(jù)流的模型(例如,殘差連接)。

使用函數(shù)式 API 構(gòu)建的模型具有以下特征:

層實(shí)例可調(diào)用并返回張量。
輸入張量和輸出張量用于定義 tf.keras.Model 實(shí)例。
此模型的訓(xùn)練方式和 Sequential 模型一樣。

input_x = tf.keras.Input(shape=(72,))
hidden1 = layers.Dense(32, activation='relu')(input_x)
hidden2 = layers.Dense(16, activation='relu')(hidden1)
pred = layers.Dense(10, activation='softmax')(hidden2)

model = tf.keras.Model(inputs=input_x, outputs=pred)
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
loss=tf.keras.losses.categorical_crossentropy,
metrics=['accuracy'])
model.fit(train_x, train_y, batch_size=32, epochs=5)

4.2 模型子類化

通過(guò)對(duì) tf.keras.Model 進(jìn)行子類化并定義您自己的前向傳播來(lái)構(gòu)建完全可自定義的模型。在 init 方法中創(chuàng)建層并將它們?cè)O(shè)置為類實(shí)例的屬性。在 call 方法中定義前向傳播

class MyModel(tf.keras.Model):
def __init__(self, num_classes=10):
super(MyModel, self).__init__(name='my_model')
self.num_classes = num_classes
self.layer1 = layers.Dense(32, activation='relu')
self.layer2 = layers.Dense(num_classes, activation='softmax')
def call(self, inputs):
h1 = self.layer1(inputs)
out = self.layer2(h1)
return out

def compute_output_shape(self, input_shape):
shape = tf.TensorShapej(input_shape).as_list()
shape[-1] = self.num_classes
return tf.TensorShape(shape)

model = MyModel(num_classes=10)
model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
loss=tf.keras.losses.categorical_crossentropy,
metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=16, epochs=5)

4.3 自定義層

通過(guò)對(duì) tf.keras.layers.Layer 進(jìn)行子類化并實(shí)現(xiàn)以下方法來(lái)創(chuàng)建自定義層:

build:創(chuàng)建層的權(quán)重。使用 add_weight 方法添加權(quán)重。

call:定義前向傳播。

compute_output_shape:指定在給定輸入形狀的情況下如何計(jì)算層的輸出形狀;蛘撸梢酝ㄟ^(guò)實(shí)現(xiàn) get_config 方法和 from_config 類方法序列化層。

class MyLayer(layers.Layer):
def __init__(self, output_dim, **kwargs):
self.output_dim = output_dim
super(MyLayer, self).__init__(**kwargs)

def build(self, input_shape):
shape = tf.TensorShape((input_shape[1], self.output_dim))
self.kernel = self.add_weight(name='kernel1', shape=shape,
initializer='uniform', trainable=True)
super(MyLayer, self).build(input_shape)

def call(self, inputs):
return tf.matmul(inputs, self.kernel)

def compute_output_shape(self, input_shape):
shape = tf.TensorShape(input_shape).as_list()
shape[-1] = self.output_dim
return tf.TensorShape(shape)

def get_config(self):
base_config = super(MyLayer, self).get_config()
base_config['output_dim'] = self.output_dim
return base_config

@classmethod
def from_config(cls, config):
return cls(**config)

model = tf.keras.Sequential(
[
MyLayer(10),
layers.Activation('softmax')
])


model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
loss=tf.keras.losses.categorical_crossentropy,
metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=16, epochs=5)

4.4 回調(diào)

callbacks = [
tf.keras.callbacks.EarlyStopping(patience=2, monitor='val_loss'),
tf.keras.callbacks.TensorBoard(log_dir='./logs')
]
model.fit(train_x, train_y, batch_size=16, epochs=5,
callbacks=callbacks, validation_data=(val_x, val_y))

5 保持和恢復(fù)

5.1 權(quán)重保存

model = tf.keras.Sequential([
layers.Dense(64, activation='relu'),
layers.Dense(10, activation='softmax')])

model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
loss='categorical_crossentropy',
metrics=['accuracy'])

model.save_weights('./weights/model')
model.load_weights('./weights/model')
model.save_weights('./model.h5')
model.load_weights('./model.h5')

5.2 保存網(wǎng)絡(luò)結(jié)構(gòu)

# 序列化成json
import json
import pprint
json_str = model.to_json()
pprint.pprint(json.loads(json_str))
fresh_model = tf.keras.models.model_from_json(json_str)
# 保持為yaml格式 #需要提前安裝pyyaml

yaml_str = model.to_yaml()
print(yaml_str)
fresh_model = tf.keras.models.model_from_yaml(yaml_str)

5.3 保存整個(gè)模型

model = tf.keras.Sequential([
layers.Dense(10, activation='softmax', input_shape=(72,)),
layers.Dense(10, activation='softmax')
])
model.compile(optimizer='rmsprop',
loss='categorical_crossentropy',
metrics=['accuracy'])
model.fit(train_x, train_y, batch_size=32, epochs=5)
model.save('all_model.h5')
model = tf.keras.models.load_model('all_model.h5')

6. 將 keras 用于 Estimator

Estimator API 用于針對(duì)分布式環(huán)境訓(xùn)練模型。它適用于一些行業(yè)使用場(chǎng)景,例如用大型數(shù)據(jù)集進(jìn)行分布式訓(xùn)練并導(dǎo)出模型以用于生產(chǎn)

model = tf.keras.Sequential([layers.Dense(10,activation='softmax'),
layers.Dense(10,activation='softmax')])

model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
loss='categorical_crossentropy',
metrics=['accuracy'])

estimator = tf.keras.estimator.model_to_estimator(model)

標(biāo)簽: [db:TAGG]

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請(qǐng)與原作者聯(lián)系。

上一篇:驚喜還是驚嚇?盤點(diǎn)機(jī)器學(xué)習(xí)算法的「高能」瞬間

下一篇:數(shù)據(jù)工程師 vs 數(shù)據(jù)科學(xué)家