Android使用Webrtc进行降噪增益,如何适配64位so

Android使用Webrtc进行降噪增益编译成32位so测试正常,但是编译64位so报错,arm64-v8a的so文件报错,是需要64位的源码编译吗还是需要改什么东西,附错误信息,急求大神解答。


2019-05-21 17:21:06.190 13887-13887/? A/DEBUG: Build fingerprint: 'Nokia/Panda_00CN/PDA:9/PPR1.180610.011/00CN_2_15B:user/release-keys'
2019-05-21 17:21:06.190 13887-13887/? A/DEBUG: Revision: '0'
2019-05-21 17:21:06.190 13887-13887/? A/DEBUG: ABI: 'arm64'
2019-05-21 17:21:06.190 13887-13887/? A/DEBUG: pid: 12202, tid: 13878, name: Thread-35 >>> com.xx.xx<<<
2019-05-21 17:21:06.190 13887-13887/? A/DEBUG: signal 11 (SIGSEGV), code 1 (SEGV_MAPERR), fault addr 0x5b5cb298
2019-05-21 17:21:06.190 13887-13887/? A/DEBUG: x0 000000005b5cb294 x1 0000000000000003 x2 00000000000000ff x3 0000000000000003
2019-05-21 17:21:06.191 13887-13887/? A/DEBUG: x4 0000000000001f40 x5 0000000000000003 x6 0000000000001f40 x7 0000000000000000
2019-05-21 17:21:06.191 13887-13887/? A/DEBUG: x8 0000000000000003 x9 0000000008000000 x10 0000000000430000 x11 0000007183dfc688
2019-05-21 17:21:06.191 13887-13887/? A/DEBUG: x12 0000007209bb8410 x13 dff7b546ac046781 x14 0000007206b68000 x15 0000007206b68000
2019-05-21 17:21:06.191 13887-13887/? A/DEBUG: x16 000000715ae2cc88 x17 000000715ae09e7c x18 0000000000000000 x19 000000005b5cb100
2019-05-21 17:21:06.191 13887-13887/? A/DEBUG: x20 0000000000000000 x21 00000000000000ff x22 0000000000001f40 x23 0000000000000003
2019-05-21 17:21:06.191 13887-13887/? A/DEBUG: x24 0000000000000018 x25 0000007159f2a588 x26 000000714082b4a0 x27 0000000000000001
2019-05-21 17:21:06.191 13887-13887/? A/DEBUG: x28 0000000000000000 x29 0000007159f28ee0
2019-05-21 17:21:06.191 13887-13887/? A/DEBUG: sp 0000007159f28eb0 lr 000000715ae08da0 pc 000000715ae09e84
2019-05-21 17:21:06.262 413-9844/? E/AudioALSAPlaybackHandlerBase: -getHardwareBufferInfo(), pcm_get_htimestamp fail, ret = -1, pcm_get_error =
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: backtrace:
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #00 pc 0000000000006e84 /data/app/com.xx.xx-U5O1pzNUtbiwoTPGd6O-UA==/split_config.arm64_v8a.apk (offset 0x1c000) (WebRtcAgc_InitDigital+8)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #01 pc 0000000000005d9c /data/app/com.xx.xx-U5O1pzNUtbiwoTPGd6O-UA==/split_config.arm64_v8a.apk (offset 0x1c000) (WebRtcAgc_Init+48)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #02 pc 0000000000033534 /data/app/com.xx.xx-U5O1pzNUtbiwoTPGd6O-UA==/oat/arm64/base.odex (offset 0x33000) (com.xx.xx.util.AgcNsUtils.init+164)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #03 pc 000000000055cd88 /system/lib64/libart.so (art_quick_invoke_stub+584)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #04 pc 00000000000cf740 /system/lib64/libart.so (art::ArtMethod::Invoke(art::Thread*, unsigned int*, unsigned int, art::JValue*, char const*)+200)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #05 pc 00000000002823b8 /system/lib64/libart.so (art::interpreter::ArtInterpreterToCompiledCodeBridge(art::Thread*, art::ArtMethod*, art::ShadowFrame*, unsigned short, art::JValue*)+344)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #06 pc 000000000027d480 /system/lib64/libart.so (bool art::interpreter::DoCall(art::ArtMethod*, art::Thread*, art::ShadowFrame&, art::Instruction const*, unsigned short, art::JValue*)+752)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #07 pc 000000000052fa0c /system/lib64/libart.so (MterpInvokeVirtualQuickRange+420)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #08 pc 0000000000553194 /system/lib64/libart.so (ExecuteMterpImpl+30100)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #09 pc 00000000002146b8 /data/app/com..xx.xx-U5O1pzNUtbiwoTPGd6O-UA==/oat/arm64/base.vdex (com.xx.xx.AgcNsUtils.prepare+44)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #10 pc 0000000000255e70 /system/lib64/libart.so (_ZN3art11interpreterL7ExecuteEPNS_6ThreadERKNS_20CodeItemDataAccessorERNS_11ShadowFrameENS_6JValueEb.llvm.1181525464+496)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #11 pc 000000000025b9f0 /system/lib64/libart.so (art::interpreter::ArtInterpreterToInterpreterBridge(art::Thread*, art::CodeItemDataAccessor const&, art::ShadowFrame*, art::JValue*)+216)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #12 pc 000000000027c358 /system/lib64/libart.so (bool art::interpreter::DoCall(art::ArtMethod*, art::Thread*, art::ShadowFrame&, art::Instruction const*, unsigned short, art::JValue*)+920)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #13 pc 000000000052f6f0 /system/lib64/libart.so (MterpInvokeVirtualQuick+584)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #14 pc 0000000000553114 /system/lib64/libart.so (ExecuteMterpImpl+29972)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #15 pc 00000000002bc446 /data/app/.xx.xx-U5O1pzNUtbiwoTPGd6O-UA==/oat/arm64/base.vdex (com.xx.xx.AudioRecorder.a+26)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #16 pc 0000000000255e70 /system/lib64/libart.so (_ZN3art11interpreterL7ExecuteEPNS_6ThreadERKNS_20CodeItemDataAccessorERNS_11ShadowFrameENS_6JValueEb.llvm.1181525464+496)
2019-05-21 17:21:06.263 13887-13887/? A/DEBUG: #17 pc 000000000025b9f0 /system/lib64/libart.so (art::interpreter::ArtInterpreterToInterpreterBridge(art::Thread*, art::CodeItemDataAccessor const&, art::ShadowFrame*, art::JValue*)+216)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #18 pc 000000000027c358 /system/lib64/libart.so (bool art::interpreter::DoCall(art::ArtMethod*, art::Thread*, art::ShadowFrame&, art::Instruction const*, unsigned short, art::JValue*)+920)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #19 pc 000000000052d9e0 /system/lib64/libart.so (MterpInvokeDirect+296)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #20 pc 000000000054f494 /system/lib64/libart.so (ExecuteMterpImpl+14484)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #21 pc 00000000002bc388 /data/app/com.allinone.callerid-U5O1pzNUtbiwoTPGd6O-UA==/oat/arm64/base.vdex (com.allinone.callerid.util.recorder.AudioRecorder.a)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #22 pc 0000000000255e70 /system/lib64/libart.so (_ZN3art11interpreterL7ExecuteEPNS_6ThreadERKNS_20CodeItemDataAccessorERNS_11ShadowFrameENS_6JValueEb.llvm.1181525464+496)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #23 pc 000000000025b9f0 /system/lib64/libart.so (art::interpreter::ArtInterpreterToInterpreterBridge(art::Thread*, art::CodeItemDataAccessor const&, art::ShadowFrame*, art::JValue*)+216)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #24 pc 000000000027c358 /system/lib64/libart.so (bool art::interpreter::DoCall(art::ArtMethod*, art::Thread*, art::ShadowFrame&, art::Instruction const*, unsigned short, art::JValue*)+920)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #25 pc 000000000052dba4 /system/lib64/libart.so (MterpInvokeStatic+204)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #26 pc 000000000054f514 /system/lib64/libart.so (ExecuteMterpImpl+14612)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #27 pc 00000000002bbfe8 /data/app/com.allinone.callerid-U5O1pzNUtbiwoTPGd6O-UA==/oat/arm64/base.vdex (com.allinone.callerid.util.recorder.e.run+12)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #28 pc 0000000000255e70 /system/lib64/libart.so (_ZN3art11interpreterL7ExecuteEPNS_6ThreadERKNS_20CodeItemDataAccessorERNS_11ShadowFrameENS_6JValueEb.llvm.1181525464+496)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #29 pc 000000000051cde0 /system/lib64/libart.so (artQuickToInterpreterBridge+1032)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #30 pc 0000000000565efc /system/lib64/libart.so (art_quick_to_interpreter_bridge+92)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #31 pc 000000000025cfa8 /system/framework/arm64/boot.oat (offset 0x114000) (java.lang.Thread.run+72)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #32 pc 000000000055cd88 /system/lib64/libart.so (art_quick_invoke_stub+584)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #33 pc 00000000000cf740 /system/lib64/libart.so (art::ArtMethod::Invoke(art::Thread*, unsigned int*, unsigned int, art::JValue*, char const*)+200)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #34 pc 00000000004633d0 /system/lib64/libart.so (art::(anonymous namespace)::InvokeWithArgArray(art::ScopedObjectAccessAlreadyRunnable const&, art::ArtMethod*, art::(anonymous namespace)::ArgArray*, art::JValue*, char const*)+104)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #35 pc 0000000000464498 /system/lib64/libart.so (art::InvokeVirtualOrInterfaceWithJValues(art::ScopedObjectAccessAlreadyRunnable const&, jobject*, _jmethodID*, jvalue*)+424)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #36 pc 000000000048f808 /system/lib64/libart.so (art::Thread::CreateCallback(void*)+1120)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #37 pc 0000000000083114 /system/lib64/libc.so (
_pthread_start(void*)+36)
2019-05-21 17:21:06.264 13887-13887/? A/DEBUG: #38 pc 00000000000233bc /system/lib64/libc.so (__start_thread+68)
2019-05-21 17:21:06.455 413-9844/? E/AudioALSAPlaybackHandlerBase: -getHardwareBufferInfo(), pcm_get_htimestamp fail, ret = -1, pcm_get_error =

1个回答

yaohao888
Tony-Annie 这个有人评论说: arm64位的用不了,你用这个测试过吗
5 个月之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
WebRTC库在Android端声音问题
我使用webRTC库开发音视频聊天app,运行成功后图像能够联通,但是没有声音或者声音小 AudioSource audioSource = factory.createAudioSource(new MediaConstraints()); localMS.addTrack(factory.createAudioTrack("ARDAMSa0", audioSource));
android webrtc视频通话的时候,如何截图
如题,有人和我说了一个思路,在渲染的时候保存图片就行了。 但我完全找不到视频帧在哪里,该怎样保存? 所以后来我试了下集成ffmpeg来截图,但是由于jni和C++几乎零基础, 不知道从何入手了.
使用WebRTC的DataChannel代替WebSocket来做终端的数据传输的可行性如何?
使用WebRTC的DataChannel 代替 WebSocket 来做 终端的数据传输的可行性? 比如像聊天内容推送(或 那些实时更新率极高,并且需要保证传输可靠 的 数据),原来是通过 WebSocket 来实现的,就是客户端推到Socket服务器,Socket 服务器广播到 所有终端上。现在想换成直接用 WebRTC的DataChannel 来实现这类似的数据传输工作。但听说这个传输可靠性不高,求验证。
Delphi 使用Dcef3开通Webrtc
请问Delphi 使用Dcef3的控件如何开通webrtc功能呢
webrtc编译Android版本编译参数is_clang=false时,编译报错,is_clang=true时,编译成功。
[2274/3376] LINK ./rgba_to_i420_converter FAILED: rgba_to_i420_converter exe.unstripped/rgba_to_i420_converter python "../../build/toolchain/gcc_link_wrapper.py" --output="./rgba_to_i420_converter" --strip="../../buildtools/third_party/eu-strip/bin/eu-strip" --unstripped-file="./exe.unstripped/rgba_to_i420_converter" -- ../../third_party/llvm-build/Release+Asserts/bin/clang++ -Wl,--fatal-warnings -fPIC -Wl,-z,noexecstack -Wl,-z,relro -Wl,-z,now -Wl,-z,defs -Wl,--as-needed -fuse-ld=gold -Wl,--icf=all -Wl,--exclude-libs=libgcc.a -Wl,--exclude-libs=libvpx_assembly_arm.a --target=aarch64-linux-android -Wl,-mllvm,-enable-machine-outliner=never -Wl,--warn-shared-textrel -Wl,-O2 -Wl,--gc-sections -nodefaultlibs --sysroot=../../third_party/android_ndk/platforms/android-21/arch-arm64 -nostdlib -Wl,--warn-shared-textrel -pie -Bdynamic -Wl,-z,nocopyreloc -Wl,--dynamic-linker,/system/bin/linker64 -L../../third_party/android_ndk/sources/cxx-stl/llvm-libc++/libs/arm64-v8a -o "./exe.unstripped/rgba_to_i420_converter" -Wl,--start-group @"./rgba_to_i420_converter.rsp" -Wl,--end-group ../../third_party/android_ndk/platforms/android-21/arch-arm64/usr/lib/crtbegin_dynamic.o -lc -lgcc_s -lm -lrt -landroid_support ../../third_party/android_ndk/toolchains/aarch64-linux-android-4.9/prebuilt/linux-x86_64/lib/gcc/aarch64-linux-android/4.9.x/libgcc.a -ldl -llog -lGLESv2 ../../third_party/android_ndk/platforms/android-21/arch-arm64/usr/lib/crtend_android.o /usr/bin/ld.gold: fatal error: obj/rtc_tools/rgba_to_i420_converter/converter.o: unsupported ELF machine number 183 clang: error: linker command failed with exit code 1 (use -v to see invocation)
webrtc在android平台下声音传输异常
我在根据Google的demo做了一个android平台下的基于webrtc技术的p2p视频通信。编译运行后,视频成功打通,但是声音传输却并不正常。我给两端换了不同的手机测试,发现有的手机声音较大,有的很小,大多数是没有声音。不知道有没有做这方面开发的大牛,给指点一下,拜谢了先!!!
关于如何在java客户端通过webrtc实现音频通话
求大神指教! 现在服务是好的,PC客户端需要通过webrtc与服务通讯,实现音频通话,求支撑库和DEMO。 网上都是需要自己下载编译,有没有拿来主义。 不要浏览器的。 当然,如果你能让它在java客户端运行也可以。
webrtc在电信和网通用户之间使用很卡
求解决方案, 或者能不能使用JS代码把数据流经过云服务器进行转发一下?
Rtc Android端视频存储与上传
基于WebRtc开发, Android端视频存储与上传怎么实现?
Webrtc如何添加进去x265编码器。编译上面如何编译
Webrtc如何添加进去x265编码器。编译上面如何编译,webrtc源码支持的是ffmpeg的h265解码,但是编码的话,总感觉自己用ninja编译不进去
webRTC在本机部署后,无法看到本地画面
在本机部署了webRTC,刚开始在本地浏览器看到的是本地的画面,当另外一台电脑打开我发送的链接后,我们相互能看到对方的画面,但是看不到本地的,请教大神是为什么,该怎么解决??
webview作为浏览器使用webrtc时报错
error: b.exports ## detail: "Failed to parse SessionDescription. Failed to parse audio codecs correctly." message: "something wrong with your network , please try late." name: "INTERNAL_ERROR" no: 30001
webrtc做一个简单的视屏通话Demo用tomcat服务器
现在webrtc开发用什么工具,环境部署怎样的,用什么语言nodejs? 可以推荐学习webrtc好的网站 有源码demo的
webrtc框架下得isac语音译码问题
看了了webrtc源代码的isac编译码程序,自己写了一个控制台程序,读取一个pcm int16的话音文件,然后用isac编码,最后译码,译码后语音明显有破音和过载,与原语音比较差异很明显,始终找不到原因,忘高手指教。以下是我写的源代码。 #include "stdafx.h" #include "isac.h" #include "utility.h" #include "math.h" #include "windows.h"; int _tmain(int argc, _TCHAR* argv[]) { ISACStruct* ISAC_main_inst; WebRtc_Word16 stream_len = 0; IsacSamplingRate sampFreqKHz = kIsacWideband; WebRtc_Word16 declen; WebRtc_Word16 speechType[1]; *speechType = 1; WebRtc_UWord16 payload[600]; WebRtc_Word16 decoded[1920]; WebRtc_Word16 decodeout[1920]; WebRtc_UWord16 payloadRCU[600]; WebRtc_Word16 rcuStreamLen = 0; int samplesIn10Ms = 160, cur_framesmpls = 0; const char Infilename[] = "D:\\matlab code\\fileout.pcm"; const char Outfilename[] = "D:\\matlab code\\fileout_decode.pcm"; FILE *filein, *fileout; short shortdata[160]; memset(shortdata, 0, 160); memset(decoded, 0, 1920); filein = fopen(Infilename, "r"); fileout = fopen(Outfilename, "w"); fclose(fileout); fileout = fopen(Outfilename, "a+"); //++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++ int err = WebRtcIsac_Create(&ISAC_main_inst); WebRtcIsac_SetEncSampRate(ISAC_main_inst, (sampFreqKHz == 16) ? kIsacWideband : kIsacSuperWideband); WebRtcIsac_SetDecSampRate(ISAC_main_inst, (sampFreqKHz == 16) ? kIsacWideband : kIsacSuperWideband); //+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++ fseek(filein, 0, SEEK_END); int fsize = ftell(filein); int samplenum = floor((double)fsize / 2); int blocknum = floor((double)samplenum / samplesIn10Ms/3); fseek(filein, 0, SEEK_SET); if (WebRtcIsac_DecoderInit(ISAC_main_inst) < 0) { printf("cannot initialize decoder\n"); return -1; } if (WebRtcIsac_EncoderInit(ISAC_main_inst, 0) < 0) { printf("cannot initialize encoder\n"); return -1; } if (WebRtcIsac_ControlBwe(ISAC_main_inst, 36000, 30, 1) < 0) { printf("cannot configure BWE\n"); return -1; } BottleNeckModel packetData; packetData.arrival_time = 0; packetData.sample_count = 0; packetData.rtp_number = 0; stream_len = 0; for (int i = 0; i < blocknum; i++) { cur_framesmpls = 0; stream_len = 0; fseek(filein, i*samplesIn10Ms * 3 * 2, SEEK_SET); //+++++++++++read file and encode while (stream_len == 0) { int k = 0; int size = fread(shortdata, sizeof(short), samplesIn10Ms, filein); k++; fseek(filein, i*samplesIn10Ms * 3 * 2 + samplesIn10Ms*2*k, SEEK_SET); cur_framesmpls += samplesIn10Ms; //-------- iSAC encoding --------- stream_len = WebRtcIsac_Encode(ISAC_main_inst, shortdata, (WebRtc_Word16*)payload); if (stream_len < 0) { // exit if returned with error //errType=WebRtcIsac_GetErrorCode(ISAC_main_inst); fprintf(stderr, "\nError in encoder\n"); getchar(); exit(EXIT_FAILURE); } } rcuStreamLen = WebRtcIsac_GetRedPayload(ISAC_main_inst, (WebRtc_Word16*)payloadRCU); //++++++++++++++test parameters++++++++ //WebRtc_Word32 sendbottleneck; //WebRtcIsac_GetUplinkBw(ISAC_main_inst, &sendbottleneck); //WebRtcIsac_UpdateUplinkBw(ISAC_main_inst, 9); WebRtc_Word16 bweindex, framelen; WebRtcIsac_ReadBwIndex((WebRtc_Word16*)payload, &bweindex); WebRtcIsac_UpdateUplinkBw(ISAC_main_inst, bweindex); WebRtcIsac_ReadFrameLen(ISAC_main_inst, (WebRtc_Word16*)payload, &framelen); //=========================updata bw======================================== //get_arrival_time(cur_framesmpls, 10000, 16000, &packetData, //sampFreqKHz * 1000, sampFreqKHz * 1000); /* /* if (WebRtcIsac_UpdateBwEstimate(ISAC_main_inst, payload, stream_len, 1, 0, 480) < 0) { printf(" BWE Error at client\n"); return -1; }*/ //======================= iSAC decoding =========================== declen = WebRtcIsac_Decode(ISAC_main_inst, payload, stream_len, decoded, speechType); if (declen <= 0) { //errType=WebRtcIsac_GetErrorCode(ISAC_main_inst); fprintf(stderr, "\nError in decoder.\n"); getchar(); exit(1); } //+++++++++++++++++++++write file to the out file /*for (int i = 0; i < declen; i++) { WebRtc_Word16 bit1 = (int16_t)decoded[i] >> 15 & 0x0001; WebRtc_Word16 bit2 = (int16_t)decoded[i] >> 13 & 0x0002; WebRtc_Word16 bit3 = (int16_t)decoded[i] >> 11 & 0x0004; WebRtc_Word16 bit4 = (int16_t)decoded[i] >> 9 & 0x0008; WebRtc_Word16 bit5 = (int16_t)decoded[i] >> 7 & 0x0010; WebRtc_Word16 bit6 = (int16_t)decoded[i] >> 5 & 0x0020; WebRtc_Word16 bit7 = (int16_t)decoded[i] >> 3 & 0x0040; WebRtc_Word16 bit8 = (int16_t)decoded[i] >> 1 & 0x0080; WebRtc_Word16 bit9 = (int16_t)decoded[i] <<1 & 0x0100; WebRtc_Word16 bit10 = (int16_t)decoded[i] <<3 & 0x0200; WebRtc_Word16 bit11 = (int16_t)decoded[i] << 5 & 0x0400; WebRtc_Word16 bit12 = (int16_t)decoded[i] << 7 & 0x0800; WebRtc_Word16 bit13 = (int16_t)decoded[i] << 9 & 0x1000; WebRtc_Word16 bit14 = (int16_t)decoded[i] << 11 & 0x2000; WebRtc_Word16 bit15 = (int16_t)decoded[i] << 13 & 0x4000; WebRtc_Word16 bit16 = (int16_t)decoded[i] << 15 & 0x8000; decodeout[i] = bit1 | bit2 | bit3 | bit4 | bit5 | bit6| bit7 | bit8 | bit9 | bit10 | bit11 | bit12| bit13 | bit14 | bit15 | bit16; }*/ fwrite(decoded, sizeof(WebRtc_Word16), declen, fileout); } fclose(filein); fclose(fileout); return 0; }
sipml5 webrtc媒体流拒绝
sipml5发布到tomcat服务器上拨打不了电话,显示媒体流被拒绝,但是在本地各个功能都没问题,请问各位什么原因
搭建webrtc信令服务器时报错
执行go get collidermain 时报错:can't load package:package collidermain:no buildable Go source files in /usr/lib/go/src/pkg/collidermain
webrtc音频采集传输问题
phonertc或者webrtc在安卓机顶盒上采集到的声音,传给对方,对方听不到或者声音断断续续
webrtc音视频通话,除了在华为手机上正常,其他手机均是远程视频黑屏情况
情况和问题描述: 最近在开发webrtc的音视频通话功能,本使用org.webrtc:google-webrtc:1.0.28513/这个版本开发,但是却发现远程视频显示不出来,过程没有任何报错,信令交互一切正常,我很疑惑,就将版本调整至org.webrtc:google-webrtc:1.0.24465@aar;让我惊喜的是在华为手机上正常了,远程和本地视频一切正常;但在1+、小米和红米等手机上无法正常显示出远程视频;本以为是没有video的candidate造成,但是经过华为手机反复测试和看log后发现,即使没有video的candidate都能正常显示出远程视频,所以我将这点给排除了;然后经过反反复复的测试和调整,华为手机只要不要用太新的webrtc版本就能正常,但其他手机均不正常;我在这个问题上已经纠结了两个星期,希望有大能能够帮助我。 这个问题实在很奇怪,没有报错,信令正常,交互正常,最终流能通,但就是无法显示远程视频;是解析的问题呢,还是渲染的问题,还是其他问题。很疑惑了,希望业界大佬指教!!! 正常截图: ![图片说明](https://img-ask.csdn.net/upload/201909/17/1568702658_848334.jpg) 异常截图: ![图片说明](https://img-ask.csdn.net/upload/201909/17/1568702684_763667.jpg) 然后经过log的反复查看,发现了以下的一个log,怀疑也可能有关系,本人webrtc小白,贴出讨论,虚心请教 ![图片说明](https://img-ask.csdn.net/upload/201909/17/1568702792_787513.png)
相见恨晚的超实用网站
相见恨晚的超实用网站 持续更新中。。。
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载 点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。 ...
字节跳动视频编解码面经
三四月份投了字节跳动的实习(图形图像岗位),然后hr打电话过来问了一下会不会opengl,c++,shador,当时只会一点c++,其他两个都不会,也就直接被拒了。 七月初内推了字节跳动的提前批,因为内推没有具体的岗位,hr又打电话问要不要考虑一下图形图像岗,我说实习投过这个岗位不合适,不会opengl和shador,然后hr就说秋招更看重基础。我当时想着能进去就不错了,管他哪个岗呢,就同意了面试...
开源一个功能完整的SpringBoot项目框架
福利来了,给大家带来一个福利。 最近想了解一下有关Spring Boot的开源项目,看了很多开源的框架,大多是一些demo或者是一个未成形的项目,基本功能都不完整,尤其是用户权限和菜单方面几乎没有完整的。 想到我之前做的框架,里面通用模块有:用户模块,权限模块,菜单模块,功能模块也齐全了,每一个功能都是完整的。 打算把这个框架分享出来,供大家使用和学习。 为什么用框架? 框架可以学习整体...
源码阅读(19):Java中主要的Map结构——HashMap容器(下1)
HashMap容器从字面的理解就是,基于Hash算法构造的Map容器。从数据结构的知识体系来说,HashMap容器是散列表在Java中的具体表达(并非线性表结构)。具体来说就是,利用K-V键值对中键对象的某个属性(默认使用该对象的“内存起始位置”这一属性)作为计算依据进行哈希计算(调用hashCode方法),然后再以计算后的返回值为依据,将当前K-V键值对在符合HashMap容器构造原则的基础上,放置到HashMap容器的某个位置上,且这个位置和之前添加的K-V键值对的存储位置完全独立,不一定构成连续的存储
c++制作的植物大战僵尸,开源,一代二代结合游戏
此游戏全部由本人自己制作完成。游戏大部分的素材来源于原版游戏素材,少部分搜集于网络,以及自己制作。 此游戏为同人游戏而且仅供学习交流使用,任何人未经授权,不得对本游戏进行更改、盗用等,否则后果自负。目前有六种僵尸和六种植物,植物和僵尸的动画都是本人做的。qq:2117610943 开源代码下载 提取码:3vzm 点击下载--&gt; 11月28日 新增四种植物 统一植物画风,全部修...
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它是一个过程,是一个不断累积、不断沉淀、不断总结、善于传达自己的个人见解以及乐于分享的过程。
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过...
Python——画一棵漂亮的樱花树(不同种樱花+玫瑰+圣诞树喔)
最近翻到一篇知乎,上面有不少用Python(大多是turtle库)绘制的树图,感觉很漂亮,我整理了一下,挑了一些我觉得不错的代码分享给大家(这些我都测试过,确实可以生成) one 樱花树 动态生成樱花 效果图(这个是动态的): 实现代码 import turtle as T import random import time # 画樱花的躯干(60,t) def Tree(branch, ...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 free -m 其中:m表示兆,也可以用g,注意都要小写 Men:表示物理内存统计 total:表示物理内存总数(total=used+free) use...
Python 基础(一):入门必备知识
Python 入门必备知识,你都掌握了吗?
深度学习图像算法在内容安全领域的应用
互联网给人们生活带来便利的同时也隐含了大量不良信息,防范互联网平台有害内容传播引起了多方面的高度关注。本次演讲从技术层面分享网易易盾在内容安全领域的算法实践经验,包括深度...
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发...
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 演示地点演示 html代码如下` music 这个年纪 七月的风 音乐 ` 然后就是css`*{ margin: 0; padding: 0; text-decoration: none; list-...
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。
数据库优化 - SQL优化
以实际SQL入手,带你一步一步走上SQL优化之路!
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 cpp 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7 p...
通俗易懂地给女朋友讲:线程池的内部原理
餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”
经典算法(5)杨辉三角
写在前面: 我是 扬帆向海,这个昵称来源于我的名字以及女朋友的名字。我热爱技术、热爱开源、热爱编程。技术是开源的、知识是共享的。 这博客是对自己学习的一点点总结及记录,如果您对 Java、算法 感兴趣,可以关注我的动态,我们一起学习。 用知识改变命运,让我们的家人过上更好的生活。 目录一、杨辉三角的介绍二、杨辉三角的算法思想三、代码实现1.第一种写法2.第二种写法 一、杨辉三角的介绍 百度
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹...
面试官:你连RESTful都不知道我怎么敢要你?
干货,2019 RESTful最贱实践
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看...
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
致 Python 初学者
欢迎来到“Python进阶”专栏!来到这里的每一位同学,应该大致上学习了很多 Python 的基础知识,正在努力成长的过程中。在此期间,一定遇到了很多的困惑,对未来的学习方向感到迷茫。我非常理解你们所面临的处境。我从2007年开始接触 python 这门编程语言,从2009年开始单一使用 python 应对所有的开发工作,直至今天。回顾自己的学习过程,也曾经遇到过无数的困难,也曾经迷茫过、困惑过。开办这个专栏,正是为了帮助像我当年一样困惑的 Python 初学者走出困境、快速成长。希望我的经验能真正帮到你
Python 编程实用技巧
Python是一门很灵活的语言,也有很多实用的方法,有时候实现一个功能可以用多种方法实现,我这里总结了一些常用的方法,并会持续更新。
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,
程序员:我终于知道post和get的区别
IT界知名的程序员曾说:对于那些月薪三万以下,自称IT工程师的码农们,其实我们从来没有把他们归为我们IT工程师的队伍。他们虽然总是以IT工程师自居,但只是他们一厢情愿罢了。 此话一出,不知激起了多少(码农)程序员的愤怒,却又无可奈何,于是码农问程序员。 码农:你知道get和post请求到底有什么区别? 程序员:你看这篇就知道了。 码农:你月薪三万了? 程序员:嗯。 码农:你是怎么做到的? 程序员:
"狗屁不通文章生成器"登顶GitHub热榜,分分钟写出万字形式主义大作
前言 GitHub 被誉为全球最大的同性交友网站,……,陪伴我们已经走过 10+ 年时间,它托管了大量的软件代码,同时也承载了程序员无尽的欢乐。 上周给大家分享了一篇10个让你笑的合不拢嘴的Github项目,而且还拿了7万+个Star哦,有兴趣的朋友,可以看看, 印象最深刻的是 “ 呼吸不止,码字不停 ”: 老实交代,你是不是经常准备写个技术博客,打开word后瞬间灵感便秘,码不出字? 有什么
推荐几款比较实用的工具,网站
1.盘百度PanDownload 这个云盘工具是免费的,可以进行资源搜索,提速(偶尔会抽风????) 不要去某站买付费的???? PanDownload下载地址 2.BeJSON 这是一款拥有各种在线工具的网站,推荐它的主要原因是网站简洁,功能齐全,广告相比其他广告好太多了 bejson网站 3.二维码美化 这个网站的二维码美化很好看,网站界面也很...
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员
相关热词 c# plc s1200 c#里氏转换原则 c# 主界面 c# do loop c#存为组套 模板 c# 停掉协程 c# rgb 读取图片 c# 图片颜色调整 最快 c#多张图片上传 c#密封类与密封方法
立即提问