继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

AI 在 marketing 上的应用

Alice嘟嘟
关注TA
已关注
手记 209
粉丝 75
获赞 279

AI 在 marketing 中有很多应用,例如 搜索,推荐系统,程序化广告,市场预测,语音/文本识别(会话商务),防欺诈,网页设计,商品定价,聊天机器人等。

  1. 其中很重要的一个部分叫 audience target,AI 可以应用在这里,可以对顾客和顾客的需求进行精准的定位,找到前20%最有价值的客户,预测顾客下一次会买什么东西,这样可以减少时间金钱等资源的消耗。

  2. 另一个应用是内容生成,输入一个关键词,从大量的数据里,找到和这个关键词相关的段落文章等,融合成一段文字。
    这个技术可以针对目标客户生成能够吸引他们的内容,找到能够激发他们购买欲的单词短语句子等,将流量转化为销量。很多公司都用这个技术,例如雅虎。

  3. 还有一个是实时优化,当你通过电子邮件向你的客户推送消息的时候,你要实时地分析他们喜欢什么,不喜欢什么。

  4. 一个人在不同的时间会使用电脑,手机,平板等不同的设备,AI 还可以被用来预测用户在什么时间会使用什么设备,帮助公司在特定的设备上进行有效的推送。

1. 接下来看一下 audience targeting 的一个例子:

给定一个广告,来看哪些顾客更有可能被转化

用一个矩阵来表示用户对一些广告的评分,这里需要用到矩阵分解,即要把这个矩阵分成两个矩阵的乘积,其中一个矩阵表示每个用户对某些特征的喜好程度,另一个矩阵表示这些广告在这些特征上的得分。

AI 可以将这个矩阵中空白的地方预测出来。可以预测用户对未评分的广告会打的分数。有了这个乘积得到的矩阵,就可以知道用户对没有评分过的广告的评分。然后可以设定一个阈值,当评分高于这个阈值时,就推送这个广告。

  • 这里可以用  LightFM, 是一个python库,有很多流行的推荐算法,可以生成 user 和 item 的矩阵表示,可以学习每个特征的 embedding ,然后再将 user  和 item 的两个矩阵相乘得到一个分数。

  • 还可以用神经网络可以得到更有意义的表达。

  • TensorRec 是一个较新的基于 Tensorflow 搭建推荐系统的库,可以根据用户过去喜欢的广告,生成一个可能喜欢的新广告。

2. 那么具体如何做推荐呢?

第一步,将数据转化为 feature tensor,为了做 embedding,这里可以用 word2vec。
第二步,将 user ,item tensor 转化为 user~item 表达。当然因为这是个预测值,所以就会有 loss function,这里用梯度下降求得参数,使损失最小。
第三步,用 TensorRec 来进行推荐

整体流程为:
建立模型--数据--训练模型--进行预测--最后用 Recall 进行评估:


3. 内容生成

前面提到的其中一个应用 内容生成,
当推荐系统建立之后,要推荐的内容也可以用 AI 自动生成。

这里用到 LSTM,
我们知道 RNN 很擅长预测序列,根据前面的几个字预测紧接着的后面这个字是什么。不过当句子很长时,会有 vanishing gradient 问题。
而在 LSTM 中,有几个 gate,它们可以追踪 gradient,用来应对 vanishing gradient 问题,这样 LSTM 就可以记忆很长的序列。

下面是部分代码:

用 Keras 库可以很简单地就构建出复杂的神经网络,很易读,一行代表一层,
优化器用的是 RMSprop,

# build the model: a single LSTMprint('Build model...')
model = Sequential()
model.add(LSTM(128, input_shape=(maxlen, len(chars))))
model.add(Dense(len(chars)))
model.add(Activation('softmax'))

optimizer = RMSprop(lr=0.01)
model.compile(loss='categorical_crossentropy', optimizer=optimizer)def sample(preds, temperature=1.0):
    # helper function to sample an index from a probability array
    preds = np.asarray(preds).astype('float64')
    preds = np.log(preds) / temperature
    exp_preds = np.exp(preds)
    preds = exp_preds / np.sum(exp_preds)
    probas = np.random.multinomial(1, preds, 1)    return np.argmax(probas)def on_epoch_end(epoch, logs):
    # Function invoked at end of each epoch. Prints generated text.
    print()
    print('----- Generating text after Epoch: %d' % epoch)

    start_index = random.randint(0, len(text) - maxlen - 1)    for diversity in [0.2, 0.5, 1.0, 1.2]:
        print('----- diversity:', diversity)

        generated = ''
        sentence = text[start_index: start_index + maxlen]
        generated += sentence
        print('----- Generating with seed: "' + sentence + '"')
        sys.stdout.write(generated)        for i in range(400):
            x_pred = np.zeros((1, maxlen, len(chars)))            for t, char in enumerate(sentence):
                x_pred[0, t, char_indices[char]] = 1.

            preds = model.predict(x_pred, verbose=0)[0]
            next_index = sample(preds, diversity)
            next_char = indices_char[next_index]

            generated += next_char
            sentence = sentence[1:] + next_char

            sys.stdout.write(next_char)
            sys.stdout.flush()
        print()

print_callback = LambdaCallback(on_epoch_end=on_epoch_end)

model.fit(x, y,
          batch_size=128,
          epochs=60,
          callbacks=[print_callback])


打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP