Встраивать модель обнаружения объектов в приложение iOS и развертывать ее в контенте UIView вместо потока камеры?

Не стесняйтесь использовать следующий пакет: https://github.com/Propaganistas/Laravel-Phone

и использовать его, например:

{{ phone('612345678'); }}
{{ phone($user['phone'], 'US'); }}

0
задан SumakuTension 19 January 2019 в 07:57
поделиться

1 ответ

В этом исходном коде TensorFlow в файле CameraExampleViewController.mm есть метод runCNNOnFrame, который принимает объект CVPixelBuffer в качестве входных данных (с камеры) и копирует его содержимое в image_tensor_mapped.data(). Затем он запускает график TF для этого объекта image_tensor.

Чтобы использовать другой источник изображения, такой как содержимое UIView, вам необходимо сначала прочитать содержимое этого представления в некоторый тип буфера памяти (обычно CGImage), а затем скопировать этот буфер памяти в image_tensor_mapped.data().

Возможно, будет проще преобразовать модель TF в Core ML (если это возможно), а затем использовать среду Vision для запуска модели, поскольку она может напрямую использовать CGImage в качестве входных данных. Это избавляет вас от необходимости сначала преобразовывать это изображение в тензор.

0
ответ дан Matthijs Hollemans 19 January 2019 в 07:57
поделиться