усреднение векторов слов предложения в Keras- Предварительно обученное вложение слов

Используйте атрибут background-size и установите фоновый повтор на no-repeat.

Нравится это:

body { 
        background: url('http://www.androidtapp.com/wp-content/uploads/2012/11/Angry-Birds-Star-Wars-Menu.png') no-repeat center center fixed;
        -webkit-background-size: cover;
        -moz-background-size: cover;
        -o-background-size: cover;
        background-size: cover;
}

См. jsFiddle

1
задан HelpASisterOut 16 January 2019 в 12:53
поделиться

1 ответ

Вы можете использовать функцию mean из бэкэнда Keras и обернуть ее слоем Lambda для усреднения вложений по словам.

import keras
from keras.layers import Embedding
from keras.models import Sequential
import numpy as np
# Set parameters
vocab_size=1000
max_length=10
# Generate random embedding matrix for sake of illustration
embedding_matrix = np.random.rand(vocab_size,300)

model = Sequential()
model.add(Embedding(vocab_size, 300, weights=[embedding_matrix], 
input_length=max_length, trainable=False))
# Average the output of the Embedding layer over the word dimension
model.add(keras.layers.Lambda(lambda x: keras.backend.mean(x, axis=1)))

model.summary()

Дает:

_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
embedding_6 (Embedding)      (None, 10, 300)           300000    
_________________________________________________________________
lambda_6 (Lambda)            (None, 300)               0         
=================================================================
Total params: 300,000
Trainable params: 0
Non-trainable params: 300,000

Кроме того, вы можете использовать слой Lambda, чтобы обернуть произвольные функции, которые работают с тензорами в слое Keras, и добавить их в вашу модель. Если вы используете бэкэнд TensorFlow, у вас также есть доступ к тензорным операциям:

import tensorflow as tf    
model = Sequential()
model.add(Embedding(vocab_size, 300, weights=[embedding_matrix], 
input_length=max_length, trainable=False))
model.add(keras.layers.Lambda(lambda x: tf.reduce_mean(x, axis=1)))
# same model as before

Это может помочь реализовать больше пользовательских функций усреднения.

0
ответ дан sdcbr 16 January 2019 в 12:53
поделиться
Другие вопросы по тегам:

Похожие вопросы: