Java 类名:com.alibaba.alink.operator.batch.recommendation.AlsImplicitTrainBatchOp
Python 类名:AlsImplicitTrainBatchOp
隐式反馈对应的ALS算法即:ALS-WR(Alternating Least Squares With Weighted-λ -regularization)。 用于对评分矩阵进行因子分解,然后预测user对item的评分。
它通过观察到的所有用户给产品的打分,来推断每个用户的喜好并向用户推荐适合的产品。
很多情况下,用户并没有明确反馈对物品的偏好,需要通过用户的相关行为去推测其对物品的偏好,比如在电商网站中,用户是否点击物品,点击的话在一定程度上表示喜欢,
未点击的话可能是不喜欢,也可能是没有看到该物品。这种形式下的反馈就被称为隐式反馈。即矩阵R为隐式反馈矩阵,引入变量p_ij表示用户u_i对物品v_j的置信度,
如果隐式反馈大于0,置信度为,反之置信度为0。
上文也提到了,隐式反馈为0,不代表用户完全不喜欢,也可能是用户没有看到该物品。另外用户点击一个物品,也不代表是喜欢他,
可能是误点,所以需要一个信任等级来显示用户喜欢某个物品,一般情况下,r_ij越大(用户行为的次数),越能暗示用户喜欢某个物品,因此引入变量c_ij,来衡量p_ij的信任度。
$\alpha$ 为置信度系数,那么代价函数变为如下形式:
其中:$\lambda$ 为正则项系数。我们需要找出代价函数最小的U和V。常规的梯度下降算法不能求解。但是先固定U求V,再固定V求U, 如此迭代下去,问题就可以解决了。
隐式ALS算法和ALS算法相同,支持输出item或者user的隐向量,我们可以计算出用户或者物品的相似度,继而进行排序得到用户或者item的top N相似user或者item。
这样在数据进行召回时便可以进行召回了。 比如根据用户用行为的物品召回,当用户浏览了若干了item时, 便将这些item相似的item加入到召回池中,进行排序。
名称 | 中文名称 | 描述 | 类型 | 是否必须? | 取值范围 | 默认值 |
---|---|---|---|---|---|---|
itemCol | Item列列名 | Item列列名 | String | ✓ | ||
rateCol | 打分列列名 | 打分列列名 | String | ✓ | 所选列类型为 [BIGDECIMAL, BIGINTEGER, BYTE, DOUBLE, FLOAT, INTEGER, LONG, SHORT] | |
userCol | User列列名 | User列列名 | String | ✓ | ||
alpha | 隐式偏好模型系数alpha | 隐式偏好模型系数alpha | Double | 40.0 | ||
lambda | 正则化系数 | 正则化系数 | Double | 0.1 | ||
nonnegative | 是否约束因子非负 | 是否约束因子非负 | Boolean | false | ||
numBlocks | 分块数目 | 分块数目 | Integer | 1 | ||
numIter | 迭代次数 | 迭代次数,默认为10 | Integer | 10 | ||
rank | 因子数 | 因子数 | Integer | 10 |
df_data = pd.DataFrame([ [1, 1, 0.6], [2, 2, 0.8], [2, 3, 0.6], [4, 1, 0.6], [4, 2, 0.3], [4, 3, 0.4], ]) data = BatchOperator.fromDataframe(df_data, schemaStr='user bigint, item bigint, rating double') als = AlsImplicitTrainBatchOp().setUserCol("user").setItemCol("item").setRateCol("rating") \ .setNumIter(10).setRank(10).setLambda(0.01) model = als.linkFrom(data) model.print()
import org.apache.flink.types.Row; import com.alibaba.alink.operator.batch.BatchOperator; import com.alibaba.alink.operator.batch.recommendation.AlsImplicitTrainBatchOp; import com.alibaba.alink.operator.batch.source.MemSourceBatchOp; import org.junit.Test; import java.util.Arrays; import java.util.List; public class AlsImplicitTrainBatchOpTest { @Test public void testAlsImplicitTrainBatchOp() throws Exception { List <Row> df_data = Arrays.asList( Row.of(1, 1, 0.6), Row.of(2, 2, 0.8), Row.of(2, 3, 0.6), Row.of(4, 1, 0.6), Row.of(4, 2, 0.3), Row.of(4, 3, 0.4) ); BatchOperator <?> data = new MemSourceBatchOp(df_data, "user int, item int, rating double"); BatchOperator <?> als = new AlsImplicitTrainBatchOp().setUserCol("user").setItemCol("item").setRateCol( "rating") .setNumIter(10).setRank(10).setLambda(0.01); BatchOperator model = als.linkFrom(data); model.print(); } }
id | p0 | p1 | p2 |
---|---|---|---|
-1 | {“f0”:"user","factors"],["item","factors"],["user","item",“f1”:2,1],[2,1],[2,3} | null | null |
2 | null | 1 | 1 |
2 | null | 2 | 2 |
2 | null | 2 | 3 |
2 | null | 4 | 1 |
2 | null | 4 | 2 |
2 | null | 4 | 3 |
1 | 0.7067459225654602 0.47736793756484985 0.14002709090709686 0.6041285991668701 0.5332542657852173 0.6160406470298767 0.5020460486412048 0.48263704776763916 0.5093641877174377 0.5752177834510803 | 3 | null |
0 | 0.1763894259929657 -0.1366494745016098 0.6774582266807556 -0.4786214232444763 0.4608040153980255 0.4111763834953308 -0.49566400051116943 -0.25755634903907776 -0.17400074005126953 0.17524860799312592 | 1 | null |
0 | 0.2749805450439453 0.14517369866371155 0.15636394917964935 0.13525108993053436 0.25944361090660095 0.2805081903934479 0.0968703031539917 0.12784309685230255 0.15043362975120544 0.22882965207099915 | 4 | null |
1 | 0.7121766805648804 0.30997803807258606 0.5707741379737854 0.1878654509782791 0.7565042972564697 0.7929229140281677 0.09063886851072311 0.23355203866958618 0.3119025230407715 0.6008232831954956 | 1 | null |
1 | 0.7061372399330139 0.4771113395690918 0.1395183950662613 0.603988528251648 0.5325971245765686 0.615354597568512 0.5019887685775757 0.4824497699737549 0.5091073513031006 0.5747033953666687 | 2 | null |
0 | 0.10347702354192734 0.2801591753959656 -0.5076550841331482 0.6058341264724731 -0.19131097197532654 -0.12141165882349014 0.5839534997940063 0.38140058517456055 0.3221108913421631 0.05817580968141556 | 2 | null |