Java 类名:com.alibaba.alink.operator.batch.source.TFRecordDatasetSourceBatchOp
Python 类名:TFRecordDatasetSourceBatchOp
读取 TFRecordDataset 文件(TFRecordDataset 的介绍可以参考 TensorFlow 文档:https://www.tensorflow.org/tutorials/load_data/tfrecord )。
需要指定文件路径 filePath,可以是单个文件,也可以是包含多个 TFRecordDataset 的目录。
为了将读取的 TFRecord 转换为 Alink 中的格式,需要指定数据的 schemaStr。
由于 TFRecord 中 Feature 允许的数据类型仅有 float, int64, bytes,因此 schemaStr 填写的类型有一定的限制:
名称 | 中文名称 | 描述 | 类型 | 是否必须? | 取值范围 | 默认值 |
---|---|---|---|---|---|---|
filePath | 文件路径 | 文件路径 | String | ✓ | ||
schemaStr | Schema | Schema。格式为“colname coltype[, colname2, coltype2[, …]]”,例如“f0 string, f1 bigint, f2 double” | String | ✓ |
schemaStr = "sepal_length double, sepal_width double, petal_length double, petal_width double, category string" source = TFRecordDatasetSourceBatchOp() \ .setFilePath("https://alink-release.oss-cn-beijing.aliyuncs.com/data-files/iris.tfrecord") \ .setSchemaStr(schemaStr) source.print()
import com.alibaba.alink.operator.batch.BatchOperator; import com.alibaba.alink.operator.batch.source.TFRecordDatasetSourceBatchOp; import org.junit.Test; public class TFRecordDatasetSourceBatchOpTest { @Test public void testTFRecordDatasetSourceBatchOp() throws Exception { String schemaStr = "sepal_length double, sepal_width double, petal_length double, petal_width double, category string"; BatchOperator <?> source = new TFRecordDatasetSourceBatchOp() .setFilePath("https://alink-release.oss-cn-beijing.aliyuncs.com/data-files/iris.tfrecord") .setSchemaStr(schemaStr); source.print(); } }