У меня очень простой вопрос относительно Android и ffmpeg. Я получил ffmpeg из http://bambuser.com/opensource и смог скомпилировать его для ARM.
Результатом являются двоичные файлы ( ffmpeg
), а также несколько libsomething.so
файлы.
Мой вопрос: Этого достаточно для декодирования видео? Как мне тогда использовать ffmpeg?
Чтобы загрузить имеющуюся у меня библиотеку:
static {
System.load("/data/data/com.package/lib/libavcodec.so");
}
Она загружается нормально. Но что тогда?
Дополнительные пояснения: я видел другие проекты, в которых у людей был исходный код ffmpeg в каталоге JNI проекта. Они также создали несколько файлов Android.mk и код языка C. Мне это тоже нужно? Зачем мне сначала создавать файлы .so, а затем снова копировать исходный код ffmpeg?
Я знаю NDK и то, как он должен работать, но я никогда не видел примера того, как на самом деле можно было бы вызывать функции ffmpeg с его помощью, потому что люди, кажется, скрывают свои реализации (что вроде понятно), но даже не дают полезные указатели или примеры.
Скажем так, я хотел декодировать видеофайл. Какие родные методы мне нужно реализовать? Как запустить проект? Какие типы данных нужно передать? и т.д. Здесь, безусловно, есть несколько человек, которые хотя бы сделали это, я знаю это по часам и часам поиска.