将png转换为Tensor tensorflow.js
我正在尝试弄清楚如何将输入png转换为tensorflow.js的张量,以便我可以将它输入我的模型进行训练。目前我正在捕获图像,在本地保存它,使用fs.readFileSync读取它,然后创建一个缓冲区。我有点迷失的是将缓冲区值从0-244归一化到0-1,然后从这个缓冲区创建一个张量,以作为X arg输入到model.fit函数中。我也不知道如何设置我的标签文件并将其正确转换为Y arg的缓冲区。 (.11.2/#tf.Model.fit)非常感谢任何关于使用tensorflow.js将图像正确使用/配置到张量中的任何见解。
回购在这里;
用于在data.js中加载本地图像的代码;
const tf = require('@tensorflow/tfjs');
const assert = require('assert');
const IMAGE_HEADER_BYTES = 32;
const IMAGE_HEIGHT = 600;
const IMAGE_WIDTH = 800;
const IMAGE_FLAT_SIZE = IMAGE_HEIGHT * IMAGE_WIDTH;
function loadHeaderValues(buffer, headerLength) {
const headerValues = [];
for (let i = 0; i < headerLength / 4; i++) {
headerValues[i] = buffer.readUInt32BE(i * 4);
}
return headerValues;
}
...
...
class Dataset {
async loadLocalImage(filename) {
const buffer = fs.readFileSync(filename);
const headerBytes = IMAGE_HEADER_BYTES;
const recordBytes = IMAGE_HEIGHT * IMAGE_WIDTH;
const headerValues = loadHeaderValues(buffer, headerBytes);
console.log(headerValues, buffer);
assert.equal(headerValues[5], IMAGE_HEIGHT);
assert.equal(headerValues[4], IMAGE_WIDTH);
const images = [];
let index = headerBytes;
while (index < buffer.byteLength) {
const array = new Float32Array(recordBytes);
for (let i = 0; i < recordBytes; i++) {
// Normalize the pixel values into the 0-1 interval, from
// the original 0-255 interval.
array[i] = buffer.readUInt8(index++) / 255;
}
images.push(array);
}
assert.equal(images.length, headerValues[1]);
return images;
}
}
module.exports = new Dataset();
app.js中的图像捕获循环;
const ioHook = require("iohook");
const tf = require('@tensorflow/tfjs');
var screenCap = require('desktop-screenshot');
require('@tensorflow/tfjs-node');
const data = require('./src/data');
const virtKeys = require('./src/virtKeys');
const model = require('./src/model');
var dir = __dirname;
var paused = true;
var loopInterval,
image,
imageData,
result
ioHook.on('keyup', event => {
if (event.keycode === 88) {
if (paused) {
paused = false;
gameLoop();
} else {
paused = true;
}
}
});
ioHook.start();
function gameLoop () {
if (!paused) {
screenCap(dir + '\\image.png', {width: 800, height: 600, quality: 60}, function (error, complete) {
if (error) {
console.log(error);
} else {
imageData = await data.getImage(dir + '\\image.png')
console.log(imageData);
result = model.predict(imageData, {batchSize: 4});
console.log(result);
gameLoop();
}
})
}
}
我知道我在这里使用model.predict,我想让实际的图像在张量部分工作,然后在repo中的train-tensor.js中找出标签和model.fit()。我没有任何实际的工作代码用于培训,因此我没有将其包含在此问题中,对不起,如果它引起任何混淆。
再次感谢你!
编辑最终工作代码
const { Image, createCanvas } = require('canvas');
const canvas = createCanvas(800, 600);
const ctx = canvas.getContext('2d');
async function loadLocalImage (filename) {
try {
var img = new Image()
img.onload = () => ctx.drawImage(img, 0, 0);
img.onerror = err => { throw err };
img.src = filename;
image = tf.fromPixels(canvas);
return image;
} catch (err) {
console.log(err);
}
}
...
...
async getImage(filename) {
try {
this.image = await loadLocalImage(filename);
} catch (error) {
console.log('error loading image', error);
}
return this.image;
}
回答如下:
tensorflowjs已经有了一个方法:tf.fromPixels(), tf.browser.fromPixels()
。
您只需要将图像加载到已接受的类型(ImageData|HTMLImageElement|HTMLCanvasElement|HTMLVideoElement
)中。
你的图像加载Promise什么也没有返回,因为你的异步函数没有返回任何东西,只是你的回调,为了解决这个问题,你需要自己创建和解决一个承诺:
const imageGet = require('get-image-data');
async loadLocalImage(filename) {
return new Promise((res,rej)=>{
imageGet(filename, (err, info) => {
if(err){
rej(err);
return;
}
const image = tf.fromPixels(info.data)
console.log(image, '127');
res(image);
});
}