朴素贝叶斯 (NaiveBayes)

Java 类名:com.alibaba.alink.pipeline.classification.NaiveBayes

Python 类名:NaiveBayes

功能介绍

训练一个朴素贝叶斯模型用于多分类任务。

算法原理

朴素贝叶斯算法基于贝叶斯定理和一个“朴素”的假设:各特征间两两条件独立。

通过贝叶斯定理可以在给定特征$(x_1,\cdots,x_n)$时计算类别为$y$的概率:$P(y|x_1,\cdots,x_n)=\frac{P(y)P(x_1,\cdots,x_n|y)}{P(x_1,\cdots,x_n)
}$,而通过特征间两两独立的假设可以将上面公式简化为:$P(y|x_1,\cdots,x_n)=\frac{P(y)\prod_{i = 1}^{n}P(x_i|y)}{P(x_1,\cdots,x_n)}$。

对于连续型特征$x_i$,通常假设 $P(x_i|y)$满足高斯分布 $(\mu_y,\sigma_y)$,参数可以通过对训练数据进行最大似然估计得到。 对于离散型特征$x_i$,$P(x_i|y)=\frac{N_{yi} +
\alpha}{N_{y}+\alpha n}$,其中 $N_{yi}$ 表示类别为$y$特征$x_i$共同出现的样本数, $N_y$表示类别 $y$ 的样本数,$\alpha$ 是平滑系数。

使用方式

为了训练朴素贝叶斯模型,需要指定参数特征列名(featureCols)和标签列名(labelCol)。
特征列名中,数值类型的列默认看作连续型特征处理,如果需要强制作为离散型特征处理,需要将这些列的列名添加到参数离散特征列名(categoricalCol)中。 平滑因子可以通过参数 smoothing 指定,默认为不平滑。

组件还支持设置每条样本的权重,通过参数权重列(weightCol)指定。

文献索引

H. Zhang (2004). The optimality of Naive Bayes. Proc.
FLAIRS.

参数说明

名称 中文名称 描述 类型 是否必须? 取值范围 默认值
featureCols 特征列名 特征列名,必选 String[]
labelCol 标签列名 输入表中的标签列名 String
predictionCol 预测结果列名 预测结果列名 String
categoricalCols 离散特征列名 离散特征列名 String[]
modelFilePath 模型的文件路径 模型的文件路径 String null
overwriteSink 是否覆写已有数据 是否覆写已有数据 Boolean false
predictionDetailCol 预测详细信息列名 预测详细信息列名 String
reservedCols 算法保留列名 算法保留列 String[] null
smoothing 算法参数 光滑因子,默认为0.0 Double x >= 0.0 0.0
weightCol 权重列名 权重列对应的列名 String 所选列类型为 [BIGDECIMAL, BIGINTEGER, BYTE, DOUBLE, FLOAT, INTEGER, LONG, SHORT] null
numThreads 组件多线程线程个数 组件多线程线程个数 Integer 1
modelStreamFilePath 模型流的文件路径 模型流的文件路径 String null
modelStreamScanInterval 扫描模型路径的时间间隔 描模型路径的时间间隔,单位秒 Integer 10
modelStreamStartTime 模型流的起始时间 模型流的起始时间。默认从当前时刻开始读。使用yyyy-mm-dd hh:mm:ss.fffffffff格式,详见Timestamp.valueOf(String s) String null

代码示例

Python 代码

from pyalink.alink import *

import pandas as pd

useLocalEnv(1)

df_data = pd.DataFrame([
       [1.0, 1.0, 0.0, 1.0, 1],
       [1.0, 0.0, 1.0, 1.0, 1],
       [1.0, 0.0, 1.0, 1.0, 1],
       [0.0, 1.0, 1.0, 0.0, 0],
       [0.0, 1.0, 1.0, 0.0, 0],
       [0.0, 1.0, 1.0, 0.0, 0],
       [0.0, 1.0, 1.0, 0.0, 0],
       [1.0, 1.0, 1.0, 1.0, 1],
       [0.0, 1.0, 1.0, 0.0, 0]
])

batchData = BatchOperator.fromDataframe(df_data, schemaStr='f0 double, f1 double, f2 double, f3 double, label int')

colnames = ["f0","f1","f2", "f3"]
ns = NaiveBayesTrainBatchOp().setFeatureCols(colnames).setLabelCol("label")
model = batchData.link(ns)

predictor = NaiveBayesPredictBatchOp().setPredictionCol("pred")
predictor.linkFrom(model, batchData).print()
colnames = ["f0","f1","f2", "f3"]
# pipeline model
ns = NaiveBayes().setFeatureCols(colnames).setLabelCol("label").setPredictionCol("pred")
model = ns.fit(batchData)
model.transform(batchData).print()

Java 代码

import org.apache.flink.types.Row;

import com.alibaba.alink.operator.batch.BatchOperator;
import com.alibaba.alink.operator.batch.source.MemSourceBatchOp;
import com.alibaba.alink.pipeline.classification.NaiveBayes;
import org.junit.Test;

import java.util.Arrays;
import java.util.List;

public class NaiveBayesTest {
	@Test
	public void testNaiveBayes() throws Exception {
		List <Row> df_data = Arrays.asList(
			Row.of(1.0, 1.0, 0.0, 1.0, 1),
			Row.of(1.0, 0.0, 1.0, 1.0, 1),
			Row.of(1.0, 0.0, 1.0, 1.0, 1),
			Row.of(0.0, 1.0, 1.0, 0.0, 0),
			Row.of(0.0, 1.0, 1.0, 0.0, 0),
			Row.of(0.0, 1.0, 1.0, 0.0, 0),
			Row.of(0.0, 1.0, 1.0, 0.0, 0),
			Row.of(1.0, 1.0, 1.0, 1.0, 1),
			Row.of(0.0, 1.0, 1.0, 0.0, 0)
		);
		BatchOperator <?> batchData = new MemSourceBatchOp(df_data,
			"f0 double, f1 double, f2 double, f3 double, label int");
		NaiveBayes ns = new NaiveBayes()
			.setFeatureCols("f0", "f1", "f2", "f3")
			.setLabelCol("label")
			.setPredictionCol("pred");

		ns.fit(batchData)
			.transform(batchData)
			.print();
	}
}

运行结果

f0 f1 f2 f3 label pred
1.0 1.0 0.0 1.0 1 1
1.0 0.0 1.0 1.0 1 1
1.0 0.0 1.0 1.0 1 1
0.0 1.0 1.0 0.0 0 0
0.0 1.0 1.0 0.0 0 0
0.0 1.0 1.0 0.0 0 0
0.0 1.0 1.0 0.0 0 0
1.0 1.0 1.0 1.0 1 1
0.0 1.0 1.0 0.0 0 0