Ошибка при преобразовании модели быстрого текста в тензорный центр

Bootstrap: если вы используете Bootstrap. Это действительно хорошо: Select2

Кроме того, TokenInput интересен. Во-первых, он не зависит от jQuery-UI, во-вторых, его конфигурация очень плавная.

Единственная проблема, с которой я столкнулся, не поддерживает бесплатную маркировку. Итак, я должен вернуть строку запроса обратно клиенту как часть ответа JSON.


Как упоминается в комментарии @culithay, TokenInput поддерживает множество функций для настройки. И выделите какую-то особенность, которой у других нет:

  • tokenLimit: максимальное количество результатов, которые могут быть выбраны пользователем. Используйте null, чтобы разрешить неограниченный выбор
  • minChars: минимальное количество символов, которое пользователь должен ввести до начала поиска.
  • queryParam: имя параметра запроса, которое вы ожидаете содержать поисковый запрос на стороне сервера

Спасибо, кулитер для ввода.

0
задан wadhwasahil 16 January 2019 в 08:18
поделиться

1 ответ

Ответили на https://github.com/tensorflow/hub/issues/222 :

Привет, Сахил,

Проблема здесь в том, что tf.py_func не может быть сериализовано. Сериализация произвольных функций Python не поддерживается (по нескольким причинам).

Я вижу, что вы создаете нграммы из токена, если их нет в словаре (кстати, нужно ли искать нграммы в словаре FastText или они содержат только полные слова?).

Одним из способов решения этой проблемы может быть переписывание вашей функции _compute_ngrams в TensorFlow (может быть, вы можете использовать это напрямую или хотя бы получить вдохновение: https://www.tensorflow.org/tfx/transform/api_docs/ Python / TFT / ngrams ).

0
ответ дан Vojtech Bardiovsky 16 January 2019 в 08:18
поделиться
Другие вопросы по тегам:

Похожие вопросы: