中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

如何在Tensorflow.js中處理MNIST圖像數(shù)據

2018-06-26    來源:raincent

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

數(shù)據清理是數(shù)據科學和機器學習中的重要組成部分,本文介紹了如何在 Tensorflow.js(0.11.1)中處理 MNIST 圖像數(shù)據,并逐行解釋代碼。

有人開玩笑說有 80% 的數(shù)據科學家在清理數(shù)據,剩下的 20% 在抱怨清理數(shù)據……在數(shù)據科學工作中,清理數(shù)據所占比例比外人想象的要多得多。一般而言,訓練模型通常只占機器學習或數(shù)據科學家工作的一小部分(少于 10%)。

——Kaggle CEO Antony Goldbloom

對任何一個機器學習問題而言,數(shù)據處理都是很重要的一步。本文將采用 Tensorflow.js(0.11.1)的 MNIST 樣例(https://github.com/tensorflow/tfjs-examples/blob/master/mnist/data.js),逐行運行數(shù)據處理的代碼。

MNIST 樣例

 

 

首先,導入 TensorFlow(確保你在轉譯代碼)并建立一些常量,包括:

IMAGE_SIZE:圖像尺寸(28*28=784)

NUM_CLASSES:標簽類別的數(shù)量(這個數(shù)字可以是 0~9,所以這里有 10 類)

NUM_DATASET_ELEMENTS:圖像總數(shù)量(65000)

NUM_TRAIN_ELEMENTS:訓練集中圖像的數(shù)量(55000)

NUM_TEST_ELEMENTS:測試集中圖像的數(shù)量(10000,亦稱余數(shù))

MNIST_IMAGES_SPRITE_PATH&MNIST_LABELS_PATH:圖像和標簽的路徑

將這些圖像級聯(lián)為一個巨大的圖像,如下圖所示:

 

 

MNISTData

接下來,從第 38 行開始是 MnistData,該類別使用以下函數(shù):

load:負責異步加載圖像和標注數(shù)據;

nextTrainBatch:加載下一個訓練批;

nextTestBatch:加載下一個測試批;

nextBatch:返回下一個批的通用函數(shù),該函數(shù)的使用取決于是在訓練集還是測試集。

本文屬于入門文章,因此只采用 load 函數(shù)。

load

 

 

異步函數(shù)(async)是 Javascript 中相對較新的語言功能,因此你需要一個轉譯器。

Image 對象是表示內存中圖像的本地 DOM 函數(shù),在圖像加載時提供可訪問圖像屬性的回調。canvas 是 DOM 的另一個元素,該元素可以提供訪問像素數(shù)組的簡單方式,還可以通過上下文對其進行處理。

因為這兩個都是 DOM 元素,所以如果用 Node.js(或 Web Worker)則無需訪問這些元素。有關其他可替代的方法,請參見下文。

imgRequest

 

 

該代碼初始化了一個 new promise,圖像加載成功后該 promise 結束。該示例沒有明確處理誤差狀態(tài)。

crossOrigin 是一個允許跨域加載圖像并可以在與 DOM 交互時解決 CORS(跨源資源共享,cross-origin resource sharing)問題的圖像屬性。naturalWidth 和 naturalHeight 指加載圖像的原始維度,在計算時可以強制校正圖像尺寸。

 

 

該代碼初始化了一個新的 buffer,包含每一張圖的每一個像素。它將圖像總數(shù)和每張圖像的尺寸和通道數(shù)量相乘。

我認為 chunkSize 的用處在于防止 UI 一次將太多數(shù)據加載到內存中,但并不能 100% 確定。

 

 

該代碼遍歷了每一張 sprite 圖像,并為該迭代初始化了一個新的 TypedArray。接下來,上下文圖像獲取了一個繪制出來的圖像塊。最終,使用上下文的 getImageData 函數(shù)將繪制出來的圖像轉換為圖像數(shù)據,返回的是一個表示底層像素數(shù)據的對象。

 

 

我們遍歷了這些像素并除以 255(像素的可能最大值),以將值限制在 0 到 1 之間。只有紅色的通道是必要的,因為它是灰度圖像。

 

 

這一行創(chuàng)建了 buffer,將其映射到保存了我們像素數(shù)據的新 TypedArray 中,然后結束了該 promise。事實上最后一行(設置 src 屬性)才真正啟動函數(shù)并加載圖像。

起初困擾我的一件事是 TypedArray 的行為與其底層數(shù)據 buffer 相關。你可能注意到了,在循環(huán)中設置了 datasetBytesView,但它永遠都不會返回。

datasetBytesView 引用了緩沖區(qū)的 datasetBytesBuffer(初始化使用)。當代碼更新像素數(shù)據時,它會間接編輯緩沖區(qū)的值,然后將其轉換為 78 行的 new Float32Array。

獲取 DOM 外的圖像數(shù)據

如果你在 DOM 中,使用 DOM 即可,瀏覽器(通過 canvas)負責確定圖像的格式以及將緩沖區(qū)數(shù)據轉換為像素。但是如果你在 DOM 外工作的話(也就是說用的是 Node.js 或 Web Worker),那就需要一種替代方法。

fetch 提供了一種稱為 response.arrayBuffer 的機制,這種機制使你可以訪問文件的底層緩沖。我們可以用這種方法在完全避免 DOM 的情況下手動讀取字節(jié)。這里有一種編寫上述代碼的替代方法(這種方法需要 fetch,可以用 isomorphic-fetch 等方法在 Node 中進行多邊填充):

 

 

這為特定圖像返回了一個緩沖數(shù)組。在寫這篇文章時,我第一次試著解析傳入的緩沖,但我不建議這樣做。如果需要的話,我推薦使用 pngjs 進行 png 的解析。當處理其他格式的圖像時,則需要自己寫解析函數(shù)。

有待深入

理解數(shù)據操作是用 JavaScript 進行機器學習的重要部分。通過理解本文所述用例與需求,我們可以根據需求在僅使用幾個關鍵函數(shù)的情況下對數(shù)據進行格式化。

TensorFlow.js 團隊一直在改進 TensorFlow.js 的底層數(shù)據 API,這有助于更多地滿足需求。這也意味著,隨著 TensorFlow.js 的不斷改進和發(fā)展,API 也會繼續(xù)前進,跟上發(fā)展的步伐。

原文鏈接:https://medium.freecodecamp.org/how-to-deal-with-mnist-image-data-in-tensorflow-js-169a2d6941dd

標簽: 代碼

版權申明:本站文章部分自網絡,如有侵權,請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:關于機器學習,你所知道的,可能都是錯的

下一篇:一文帶你了解 Python 集合與基本的集合運算