Итак, вы хотите предсказать из (1,26) (действительной?) Матрицы двоичную матрицу 5 * 16.
import keras.backend as K
from keras.metrics import binary_accuracy
def custom_metric(y_true, y_pred):
threshold =0.5
thresholded_values = K.greater(y_pred, threshold)
return binary_accuracy(y_true, thresholded_values)
PS Я не проверял код, возможно, вам нужно преобразовать логический тензор в вещественное значение один ...
Я не могу помочь с вопросом об отношении в данный момент, извините. Для краткосрочной фиксации Вы могли бы проверить, чтобы видеть, существует ли какое-либо пространство в файлах DB, которые могут быть освобождены. Вы уже можете иметь, но если нет..
SELECT name ,size/128.0 - CAST(FILEPROPERTY(name, 'SpaceUsed') AS int)/128.0 AS AvailableSpaceInMB
FROM sys.database_files;
Если оператор выше возвращает некоторое пространство, Вы хотите восстановиться, можно изучить один DBCC SHRINKDATABASE времени или DBCC SHRINKFILE наряду с планированием стандартного плана технического обслуживания SQL, который может включать дефрагментацию базы данных.
DBCC SHRINKDATABASE и DBCC SHRINKFILE не являются вещами, которые необходимо сделать регулярно, потому что SQL Server нужно некоторое пространство "подкачки" для перемещения вещей для оптимальной производительности. Таким образом, ни на одного нельзя положиться как Ваша долгосрочная фиксация, и оба могли вызвать некоторое значимое снижение производительности времени отклика TFS.
JB
Вы видите рост данных каждый день, даже когда никакое действие не происходит в системе? Если ответ да, Вы храните какие-либо двоичные файлы за пределами 8 ГБ источника где-нибудь?
Причина, что я спрашиваю, состоит в том, что, если TFS не может вычислить дельту или если файл превышает размер поколения дельты, TFS копирует весь двоичный файл. У меня нет ссылки со мной, но у меня есть она на моей машине работы, которая описывает этот сценарий и как зафиксировать ее, если это - причина Ваших проблем.