您好,登錄后才能下訂單哦!
怎么在android中使用FFmpeg實現(xiàn)音頻混合?針對這個問題,這篇文章詳細(xì)介紹了相對應(yīng)的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。
采用android studio進(jìn)行開發(fā),配置build.gradle文件:
defaultConfig { ...... externalNativeBuild { cmake { cppFlags "" } } ndk { abiFilters "armeabi-v7a" } }
另外指定cmake文件路徑:
externalNativeBuild { cmake { path "CMakeLists.txt" } } sourceSets { main { jniLibs.srcDirs = ['libs'] jni.srcDirs = [] } }
從FFmpeg官網(wǎng)下載源碼,編譯成ffmpeg.so動態(tài)庫,并且導(dǎo)入相關(guān)源文件與頭文件:
然后配置cMakeLists文件:
add_library( # Sets the name of the library. audio-handle # Sets the library as a shared library. SHARED # Provides a relative path to your source file(s). src/main/cpp/ffmpeg_cmd.c src/main/cpp/cmdutils.c src/main/cpp/ffmpeg.c src/main/cpp/ffmpeg_filter.c src/main/cpp/ffmpeg_opt.c) add_library( ffmpeg SHARED IMPORTED ) set_target_properties( ffmpeg PROPERTIES IMPORTED_LOCATION ../../../../libs/armeabi-v7a/libffmpeg.so ) include_directories(src/main/cpp/include) find_library( log-lib log ) target_link_libraries( audio-handle ffmpeg ${log-lib} ) 調(diào)用FFmpeg命令行進(jìn)行音頻處理: /** * 調(diào)用ffmpeg處理音頻 * @param handleType handleType */ private void doHandleAudio(int handleType){ String[] commandLine = null; switch (handleType){ case 0://轉(zhuǎn)碼 String transformFile = PATH + File.separator + "transform.aac"; commandLine = FFmpegUtil.transformAudio(srcFile, transformFile); break; case 1://剪切 String cutFile = PATH + File.separator + "cut.mp3"; commandLine = FFmpegUtil.cutAudio(srcFile, 10, 15, cutFile); break; case 2://合并 String concatFile = PATH + File.separator + "concat.mp3"; commandLine = FFmpegUtil.concatAudio(srcFile, appendFile, concatFile); break; case 3://混合 String mixFile = PATH + File.separator + "mix.aac"; commandLine = FFmpegUtil.mixAudio(srcFile, appendFile, mixFile); break; default: break; } executeFFmpegCmd(commandLine); }
其中,音頻混音、合并、剪切和轉(zhuǎn)碼的FFmpeg命令行的拼接如下:
/** * 使用ffmpeg命令行進(jìn)行音頻轉(zhuǎn)碼 * @param srcFile 源文件 * @param targetFile 目標(biāo)文件(后綴指定轉(zhuǎn)碼格式) * @return 轉(zhuǎn)碼后的文件 */ public static String[] transformAudio(String srcFile, String targetFile){ String transformAudioCmd = "ffmpeg -i %s %s"; transformAudioCmd = String.format(transformAudioCmd, srcFile, targetFile); return transformAudioCmd.split(" ");//以空格分割為字符串?dāng)?shù)組 } /** * 使用ffmpeg命令行進(jìn)行音頻剪切 * @param srcFile 源文件 * @param startTime 剪切的開始時間(單位為秒) * @param duration 剪切時長(單位為秒) * @param targetFile 目標(biāo)文件 * @return 剪切后的文件 */ @SuppressLint("DefaultLocale") public static String[] cutAudio(String srcFile, int startTime, int duration, String targetFile){ String cutAudioCmd = "ffmpeg -i %s -ss %d -t %d %s"; cutAudioCmd = String.format(cutAudioCmd, srcFile, startTime, duration, targetFile); return cutAudioCmd.split(" ");//以空格分割為字符串?dāng)?shù)組 } /** * 使用ffmpeg命令行進(jìn)行音頻合并 * @param srcFile 源文件 * @param appendFile 待追加的文件 * @param targetFile 目標(biāo)文件 * @return 合并后的文件 */ public static String[] concatAudio(String srcFile, String appendFile, String targetFile){ String concatAudioCmd = "ffmpeg -i concat:%s|%s -acodec copy %s"; concatAudioCmd = String.format(concatAudioCmd, srcFile, appendFile, targetFile); return concatAudioCmd.split(" ");//以空格分割為字符串?dāng)?shù)組 } /** * 使用ffmpeg命令行進(jìn)行音頻混合 * @param srcFile 源文件 * @param mixFile 待混合文件 * @param targetFile 目標(biāo)文件 * @return 混合后的文件 */ public static String[] mixAudio(String srcFile, String mixFile, String targetFile){ String mixAudioCmd = "ffmpeg -i %s -i %s -filter_complex amix=inputs=2:duration=first -strict -2 %s"; mixAudioCmd = String.format(mixAudioCmd, srcFile, mixFile, targetFile); return mixAudioCmd.split(" ");//以空格分割為字符串?dāng)?shù)組 }
FFmpeg處理混音的公式如下,其中sample1為源文件采樣率、sample2為待混合文件采樣率:
混音公式:value = sample1 + sample2 - (sample1 * sample2 / (pow(2, 16-1) - 1))
開啟子線程,調(diào)用native方法進(jìn)行音頻處理:
public static void execute(final String[] commands, final OnHandleListener onHandleListener){ new Thread(new Runnable() { @Override public void run() { if(onHandleListener != null){ onHandleListener.onBegin(); } //調(diào)用ffmpeg進(jìn)行處理 int result = handle(commands); if(onHandleListener != null){ onHandleListener.onEnd(result); } } }).start(); } private native static int handle(String[] commands);
關(guān)鍵的native方法,是把java傳入的字符串?dāng)?shù)組轉(zhuǎn)成二級指針數(shù)組,然后調(diào)用FFmpeg源碼中的run方法:
JNIEXPORT jint JNICALL Java_com_frank_ffmpeg_FFmpegCmd_handle (JNIEnv *env, jclass obj, jobjectArray commands){ int argc = (*env)->GetArrayLength(env, commands); char **argv = (char**)malloc(argc * sizeof(char*)); int i; int result; for (i = 0; i < argc; i++) { jstring jstr = (jstring) (*env)->GetObjectArrayElement(env, commands, i); char* temp = (char*) (*env)->GetStringUTFChars(env, jstr, 0); argv[i] = malloc(1024); strcpy(argv[i], temp); (*env)->ReleaseStringUTFChars(env, jstr, temp); } //執(zhí)行ffmpeg命令 result = run(argc, argv); //釋放內(nèi)存 for (i = 0; i < argc; i++) { free(argv[i]); } free(argv); return result; }
關(guān)于FFmpeg的run方法的源碼如下,中間有部分省略:
int run(int argc, char **argv) { /****************省略********************/ //注冊各個模塊 avcodec_register_all(); #if CONFIG_AVDEVICE avdevice_register_all(); #endif avfilter_register_all(); av_register_all(); avformat_network_init(); show_banner(argc, argv, options); term_init(); /****************省略********************/ //解析命令選項與打開輸入輸出文件 int ret = ffmpeg_parse_options(argc, argv); if (ret < 0) exit_program(1); /****************省略********************/ //文件轉(zhuǎn)換 if (transcode() < 0) exit_program(1); /****************省略********************/ //退出程序操作:關(guān)閉文件、釋放內(nèi)存 exit_program(received_nb_signals ? 255 : main_return_code); ffmpeg_cleanup(0); }
其中,最關(guān)鍵的是文件轉(zhuǎn)換部分,源碼如下:
static int transcode(void) { int ret, i; AVFormatContext *os; OutputStream *ost; InputStream *ist; int64_t timer_start; int64_t total_packets_written = 0; //轉(zhuǎn)碼方法初始化 ret = transcode_init(); if (ret < 0) goto fail; if (stdin_interaction) { av_log(NULL, AV_LOG_INFO, "Press [q] to stop, [?] for help\n"); } timer_start = av_gettime_relative(); #if HAVE_PTHREADS if ((ret = init_input_threads()) < 0) goto fail; #endif //transcode循環(huán)處理 while (!received_sigterm) { int64_t cur_time= av_gettime_relative(); //如果遇到"q"命令,則退出循環(huán) if (stdin_interaction) if (check_keyboard_interaction(cur_time) < 0) break; //判斷是否還有輸出流 if (!need_output()) { av_log(NULL, AV_LOG_VERBOSE, "No more output streams to write to, finishing.\n"); break; } ret = transcode_step(); if (ret < 0 && ret != AVERROR_EOF) { char errbuf[128]; av_strerror(ret, errbuf, sizeof(errbuf)); av_log(NULL, AV_LOG_ERROR, "Error while filtering: %s\n", errbuf); break; } //打印音視頻流信息 print_report(0, timer_start, cur_time); } #if HAVE_PTHREADS free_input_threads(); #endif //文件末尾最后一個stream,刷新解碼器buffer for (i = 0; i < nb_input_streams; i++) { ist = input_streams[i]; if (!input_files[ist->file_index]->eof_reached && ist->decoding_needed) { process_input_packet(ist, NULL, 0); } } flush_encoders(); term_exit(); //寫文件尾,關(guān)閉文件 for (i = 0; i < nb_output_files; i++) { os = output_files[i]->ctx; if ((ret = av_write_trailer(os)) < 0) { av_log(NULL, AV_LOG_ERROR, "Error writing trailer of %s: %s", os->filename, av_err2str(ret)); if (exit_on_error) exit_program(1); } } //關(guān)閉所有編碼器 for (i = 0; i < nb_output_streams; i++) { ost = output_streams[i]; if (ost->encoding_needed) { av_freep(&ost->enc_ctx->stats_in); } total_packets_written += ost->packets_written; } if (!total_packets_written && (abort_on_flags & ABORT_ON_FLAG_EMPTY_OUTPUT)) { av_log(NULL, AV_LOG_FATAL, "Empty output\n"); exit_program(1); } //關(guān)閉所有解碼器 for (i = 0; i < nb_input_streams; i++) { ist = input_streams[i]; if (ist->decoding_needed) { avcodec_close(ist->dec_ctx); if (ist->hwaccel_uninit) ist->hwaccel_uninit(ist->dec_ctx); } } //省略最后的釋放內(nèi)存 return ret; }
關(guān)于怎么在android中使用FFmpeg實現(xiàn)音頻混合問題的解答就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關(guān)注億速云行業(yè)資訊頻道了解更多相關(guān)知識。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。