Java 类名:com.alibaba.alink.operator.batch.classification.BertTextPairClassifierTrainBatchOp
Python 类名:BertTextPairClassifierTrainBatchOp
在预训练的 BERT 模型的基础上增加一个全连接层,用于进行文本对分类任务。
名称 | 中文名称 | 描述 | 类型 | 是否必须? | 取值范围 | 默认值 |
---|---|---|---|---|---|---|
labelCol | 标签列名 | 输入表中的标签列名 | String | ✓ | ||
textCol | 文本列 | 文本列 | String | ✓ | 所选列类型为 [STRING] | |
textPairCol | 文本对列 | 文本对列 | String | ✓ | 所选列类型为 [STRING] | |
batchSize | 数据批大小 | 数据批大小 | Integer | 32 | ||
bertModelName | BERT模型名字 | BERT模型名字: Base-Chinese,Base-Multilingual-Cased,Base-Uncased,Base-Cased | String | “Base-Chinese” | ||
checkpointFilePath | 保存 checkpoint 的路径 | 用于保存中间结果的路径,将作为 TensorFlow 中 Estimator 的 model_dir 传入,需要为所有 worker 都能访问到的目录 |
String | null | ||
customConfigJson | 自定义参数 | 对应 https://github.com/alibaba/EasyTransfer/blob/master/easytransfer/app_zoo/app_config.py 中的config_json | String | |||
intraOpParallelism | Op 间并发度 | Op 间并发度 | Integer | 4 | ||
learningRate | 学习率 | 学习率 | Double | 0.001 | ||
maxSeqLength | 句子截断长度 | 句子截断长度 | Integer | 128 | ||
numEpochs | epoch 数 | epoch 数 | Double | 0.01 | ||
numFineTunedLayers | 微调层数 | 微调层数 | Integer | 1 | ||
numPSs | PS 角色数 | PS 角色的数量。值未设置时,如果 Worker 角色数也未设置,则为作业总并发度的 1/4(需要取整),否则为总并发度减去 Worker 角色数。 | Integer | null | ||
numWorkers | Worker 角色数 | Worker 角色的数量。值未设置时,如果 PS 角色数也未设置,则为作业总并发度的 3/4(需要取整),否则为总并发度减去 PS 角色数。 | Integer | null | ||
pythonEnv | Python 环境路径 | Python 环境路径,一般情况下不需要填写。如果是压缩文件,需要解压后得到一个目录,且目录名与压缩文件主文件名一致,可以使用 http://, https://, oss://, hdfs:// 等路径;如果是目录,那么只能使用本地路径,即 file://。 | String | "" | ||
removeCheckpointBeforeTraining | 是否在训练前移除 checkpoint 相关文件 | 是否在训练前移除 checkpoint 相关文件用于重新训练,只会删除必要的文件 | Boolean | null |
** 以下代码仅用于示意,可能需要修改部分代码或者配置环境后才能正常运行!**
url = "http://alink-algo-packages.oss-cn-hangzhou-zmf.aliyuncs.com/data/MRPC/train.tsv" schemaStr = "f_quality bigint, f_id_1 string, f_id_2 string, f_string_1 string, f_string_2 string" data = CsvSourceBatchOp() \ .setFilePath(url) \ .setSchemaStr(schemaStr) \ .setFieldDelimiter("\t") \ .setIgnoreFirstLine(True) \ .setQuoteChar(None) data = ShuffleBatchOp().linkFrom(data) train = BertTextPairClassifierTrainBatchOp() \ .setTextCol("f_string_1").setTextPairCol("f_string_2").setLabelCol("f_quality") \ .setNumEpochs(0.1) \ .setMaxSeqLength(32) \ .setNumFineTunedLayers(1) \ .setBertModelName("Base-Uncased") \ .linkFrom(data) AkSinkBatchOp() \ .setFilePath("/tmp/bert_text_pair_classifier_model.ak") \ .setOverwriteSink(True) \ .linkFrom(train) BatchOperator.execute()
import com.alibaba.alink.common.utils.JsonConverter; import com.alibaba.alink.operator.batch.BatchOperator; import com.alibaba.alink.operator.batch.classification.BertTextPairClassifierTrainBatchOp; import com.alibaba.alink.operator.batch.dataproc.ShuffleBatchOp; import com.alibaba.alink.operator.batch.sink.AkSinkBatchOp; import com.alibaba.alink.operator.batch.source.CsvSourceBatchOp; import com.google.common.collect.ImmutableMap; import org.junit.Test; import java.util.HashMap; import java.util.Map; public class BertTextPairClassifierTrainBatchOpTest { @Test public void testBertTextPairClassifierTrainBatchOp() throws Exception { String url = "http://alink-algo-packages.oss-cn-hangzhou-zmf.aliyuncs.com/data/MRPC/train.tsv"; String schemaStr = "f_quality bigint, f_id_1 string, f_id_2 string, f_string_1 string, f_string_2 string"; BatchOperator <?> data = new CsvSourceBatchOp() .setFilePath(url) .setSchemaStr(schemaStr) .setFieldDelimiter("\t") .setIgnoreFirstLine(true) .setQuoteChar(null); data = new ShuffleBatchOp().linkFrom(data); Map <String, Map <String, Object>> customConfig = new HashMap <>(); customConfig.put("train_config", ImmutableMap.of("optimizer_config", ImmutableMap.of("learning_rate", 0.01))); BertTextPairClassifierTrainBatchOp train = new BertTextPairClassifierTrainBatchOp() .setTextCol("f_string_1").setTextPairCol("f_string_2").setLabelCol("f_quality") .setNumEpochs(0.1) .setMaxSeqLength(32) .setNumFineTunedLayers(1) .setCustomJsonJson(JsonConverter.toJson(customConfig)) .setBertModelName("Base-Uncased") .linkFrom(data); new AkSinkBatchOp() .setFilePath("/tmp/bert_text_pair_classifier_model.ak") .setOverwriteSink(true) .linkFrom(train); BatchOperator.execute(); } }