У нас сетевая камера. У него есть HTTP-сервер для предоставления текущего изображения. Также имеется интерфейс Telnet для управления камерой (например, триггер, фокус и т. Д.). Я хотел бы добавить к камере HTML-страницу, которая обеспечивала бы простой интерфейс (у нас уже есть клиентское программное обеспечение, которое мы пишем). Я могу "
Я скомпилировал FFmpeg (libffmpeg.so) на Android. Теперь мне нужно создать приложение, подобное RockPlayer, или использовать существующую мультимедийную среду Android для вызова FFmpeg.
У вас есть шаги / процедуры / код / пример по интеграции FFmpeg в Android / StageFright?
Не могли бы вы подсказать мне, как как я могу использовать эту библиотеку для воспроизведения мультимедиа?
У меня есть требование, когда у меня уже есть транспортные потоки аудио и видео, которые мне нужно передать в FFmpeg и получить их декодирование / рендеринг. Как я могу сделать это на Android, поскольку API-интерфейсы IOMX основаны на OMX и не могут подключать FFmpeg здесь?
Также мне не удалось найти документацию по API-интерфейсам FFmpeg, которые необходимо использовать для воспроизведения.