采集后使用wifi传输上来的音频数据流如何实时播放(延迟5秒内)

具体是这样的。
声音采集然后过了adc之后在stm32单片机里只经过了adpcm编码,然后通过wifi模块传到电脑或者手机上,要求实时播放延迟少于5秒。请问电脑播放端用什么实现呢,流程大概会是怎么样。
还有疑惑就是关于我只经过了adpcm编码的话上来的数据包怎么知道顺序呢。
小白求解。

2个回答

http://www.docin.com/p-1099065630.html 看下这个论文,可以解答你的几个问题。

简单的实现方法:使用VLC搭建RTSP服务器,服务器端创建媒体流,测试端打开播放网络流文件。

lyr83530081
lyr83530081 这,那不是要在stm32上实现流媒体服务器?
一年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
如何实时采集多媒体数据流
如何实时采集声音及从摄像头来的多媒体数据流,存于内存或指定的数组中以供实时处理,如进行语音识别处理或图像处理等。MSDN上介绍的API函数都用英语,请各高手赐教。最好用VB示例。E-MAIL:chini7547@sina.com
Linux使用ffplay实时采集音频并实时播放
ffplay -f alsa -ac 2 -i hw:1,0 -ar 44100
WIFI摄像头数据流采集
手头有一个d-link DCS-930L的wifi摄像头,请问怎样才能采集到视频流,它有SDK么??
MediaRecorder实时采集传输音频问题
用MediaRecorder来做客户端的音频采集,下面是一些基础设置,rn MediaRecorder audioRecorder = new MediaRecorder();rn audioRecorder.setAudioSource(MediaRecorder.AudioSource.MIC);rn audioRecorder.setOutputFormat(MediaRecorder.OutputFormat.RAW_AMR);rn final int mono = 1;rn audioRecorder.setAudioChannels(mono);rn audioRecorder.setAudioSamplingRate(8000);rn audioRecorder.setAudioEncoder(MediaRecorder.AudioEncoder.AMR_NB);rnrn // 重点rn audioRecorder.setOutputFile(sender.getFileDescriptor());rn rn audioRecorder.prepare();rn audioRecorder.start();rnrn用localsocket来实时传输音频rn LocalServerSocket lss = new LocalServerSocket(serverName);rn LocalSocket receiver = new LocalSocket();rn receiver.connect(new LocalSocketAddress(serverName));rn receiver.setReceiveBufferSize(bufSize);rn receiver.setSendBufferSize(bufSize);rnrn LocalSocket sender = lss.accept();rn sender.setReceiveBufferSize(bufSize);rn sender.setSendBufferSize(bufSize);rnrn但是在一些机器上如小米、魅族在audioRecorder.start(); 是会报错 start failed -38rnrn如果将audioRecorder.setOutputFile(sender.getFileDescriptor()); 改成向文件写入:rn File soundFile = new File(Environment.getExternalStorageDirectory().getCanonicalFile()+"/sound.amr");rn audioRecorder.setOutputFile(soundFile.getAbsolutePath());rn就可以正常录音rnrn有哪位知道原因或者解决办法呢? 谢谢rn
DirectShow播放实时数据流怎么解决播放延迟问题?
我也是用的memfile例子改造的,可以摄像机实时播放UDP mpeg1数据流,rn但是发现延时比价严重,足有两秒钟。也就是说我挥一下手后,播放器过2秒后才能反映过来,完全无法忍受啊。rn请问怎么改造呢?rnrnpush方式就不能使用splitter了,而在GraphEdit中无法连接起来啊》
采集音频局域网内实时播放
我要做一个软件,用来实现局域网内音频实时传输播放。rn想法是采集声卡数据(waveInStart()),这样采集到的是wave语音流,再压缩成mp3流发送到局域网某个特定地址播放。rn但是从网上没有找到相关的wave流转MP3流的资料,谁能帮帮我?rnrn还有:如果采集到wave流直接局域网内传输的话,会不会因数据量太大出现阻塞?我设计大概有20路信号同时播放!
android音频实时采集 PC播放
各位大神 正在做一个android实时通信的项目 如何能把android手机麦克风收集到的音频实时在PC端播放出来 有什么关键的技术 比如能用到android中的那些类,手机和PC基于socket通信 求指教。。。
实时音频传输
两台Android机器通过WIFI可进行聊天
QIODevice+QAudioInput+QAudioOutput播放实时音频
初学QT编程,了解不是很深,现在做了这样一个功能,遇到了些麻烦,还希望大家能伸出援手,谢谢!rn线程1使用QIODevice+QAudioInput获取当前录音,音频输入Device为WriteOnly,当写数据到设备中时把该buffer通过网络发送到本地线程2进行接收。rn线程2使用QIODevice+QAudioOutput,当获得到线程1发送过来的数据时,把该buffer写入到音频输出Device,该设备也是WriteOnly,通过对比线程1发送的数据和线程2得到的一致,QIODevice写入数据时也返回了成功,但就是不能播放出对应的音频。rn线程1是实时录入和发送,线程2也是实时收取,不存在误差。rn[code=c]rn发送端:rnvoid realTimeRadio::initInputDevice()rnrn //todo;发送给界面进行更新rn audioformat.setFrequency(8000);//设置录入音频的formatrn audioformat.setChannels(1);rn audioformat.setSampleSize(16);rn audioformat.setSampleType(QAudioFormat::SignedInt);rn audioformat.setByteOrder(QAudioFormat::LittleEndian);rn audioformat.setCodec("audio/pcm");rnrn QAudioDeviceInfo info(QAudioDeviceInfo::defaultInputDevice());rn if (!info.isFormatSupported(audioformat)) rn audioformat = info.nearestFormat(audioformat);rn emit msgNotify("Default format not supported - trying to use nearest");rn rn //AudioInfo继承自QIODevice,重写了writedatarn audioInfo = new AudioInfo(audioformat, this);rn //writedata函数中发送update(const char*,qint64),OnUpdate进行网络传输rn connect(audioInfo, SIGNAL(update(const char*,qint64)), this, SLOT(OnUpdate(const char*,qint64)));rn rn createAudioInput();rnrnrnvoid realTimeRadio::createAudioInput()rnrn audioInput = new QAudioInput(audioDevice, audioformat, this);rn audioInfo->start();rn audioInput->start(audioInfo);rnrn接收端:rnvoid listenManager::initializeAudio()rnrn //设置QAudioOutput的format,和发送端保持一致rn audioformat.setFrequency(8000);rn audioformat.setChannels(1);rn audioformat.setSampleSize(16);rn audioformat.setCodec("audio/pcm");rn audioformat.setByteOrder(QAudioFormat::LittleEndian);rn audioformat.setSampleType(QAudioFormat::SignedInt);rnrn QAudioDeviceInfo info(QAudioDeviceInfo::defaultOutputDevice());rn if (!info.isFormatSupported(audioformat)) rn audioformat = info.nearestFormat(audioformat);rn rn //audioOutputInfo继承QIODevice,ReadData和WriteData里面均为空,只返回数据长度rn outputInfo = new audioOutputInfo(audioformat);rn createAudioOutput();rnrnvoid listenManager::createAudioOutput()rnrn audioOutput = new QAudioOutput(audiodevice, audioformat, this);rn outputInfo->start();rn audioOutput->start(outputInfo);rn //recSession获取线程1的数据,然后发送radioNotify消息,outputInfo接收,然后在OnradioNotify写入数据,且成功rn connect(&recSession, SIGNAL(radioNotify(const char*)), outputInfo, SLOT(OnradioNotify(const char*)));rnrnrnaudioOutputInfo类:rnqint64 audioOutputInfo::readData(char *data, qint64 len)rnrn return len;rnrnqint64 audioOutputInfo::writeData(const char *data, qint64 len)rnrn return len;rnrnqint64 audioOutputInfo::bytesAvailable() constrnrn int ilen = QIODevice::bytesAvailable();rn return QIODevice::bytesAvailable();rnrnvoid audioOutputInfo::OnradioNotify(const char* data)rnrn audioMutex.lock();rn int ret = write(data);rn audioMutex.unlock(); rnrn[/code]
高手求助,如何实时播放从采集卡采集到的音频(upcm).
看了一下directx sound的例子,全部是播放wave文件的。rn有没有直接内存拷贝的!rnrn搞定,另赠送100分
如何实时采集多媒体数据流,急需。
如何实时采集声音及从摄像头来的多媒体数据流,存于内存或指定的数组中以供实时处理,如进行语音识别处理或图像处理等。
FFmpeg实时采集麦克风延迟
FFmpeg实时采集遇到的问题(1) ffmpeg读取DirectShow,音频麦克风设备默认缓冲(通常为500ms的倍数),因此麦克风实时输出默认有500ms的延迟,这个值设置过地会降低性能。 directshow选项参数 audio_buffer_size: 以milliseconds为单位设置音频缓冲大小(它可以直接影响延迟,则取决于以来的设备),默认设备缓冲为500ms倍数。 pixel_
!!!声音的实时采集和播放!!
大侠们有没有这方面的代码啊,急用!!!
网络实时音频传输,同步和克服延迟的问题
在学做一个网络实时的音频传输,把麦克风信号直接传至另台电脑,发送端是 捕捉--》编码--》发送,接收端是 接收--》解码--》音频输出,是用Directshow实现的,当遇有网络延迟变化、其它原因导致输出滞后,时间会越来越长,如何解决这问题?在滞后时想选择丢掉一些数据的算法,想用Directshow自身功能解决这一问题,如何做?
如何减小使用AudioRecord采集音频时的延迟?
使用AudioRecord采集音频,然后通过AudioTrack播放出来,播放出来rn的声音与原声相比,感觉延迟在500毫秒以上,有没有什么办法可以减小rn这个延迟,特别是AudioRecord采集的延迟?rn不用AudioRecord都行,麻烦一点也没关系,只要能实现在尽可能小的rn延迟时间内采集到音频数据。
请教音频和视频数据的采集和传输
请教音频和视频数据的采集和传输rnrn[b]有没有人做过c#视频和音频的通讯聊天一类的。rn请问视频和音频数据从摄像头和麦克风怎样采集及播放.rn怎么实现视频和音频数据的传输啊?[/b]
linux下实时音频传输的实现
linux下实时音频传输的实现,运用linux音频接口OSS进行编程。
如何采集本地正在播放的音频???
如题,请问如何采集本地正在播放的音频?也就是耳机里的声音,麦克的声音倒是可以取道。rn望高手指点
音频信息的采集和播放,但是不可以播放
我想实现的是:一边录音,一边播放,但是现在没有声音,跟踪了一下,除了第一次进入writeaudioblock,进不去了,rnvoid writeAudioBlock(HWAVEOUT hWaveOut, LPSTR block, DWORD size)rnrn WAVEHDR header;rnrn ZeroMemory(&header, sizeof(WAVEHDR));rn header.dwBufferLength = size; //length, in bytes, of the buffer.rn header.lpData = block; // pointer to waveform buffer.rnrn waveOutPrepareHeader(hWaveOut, &header, sizeof(WAVEHDR));rnrn waveOutWrite(hWaveOut, &header, sizeof(WAVEHDR));rnrn Sleep(500);rn while(waveOutUnprepareHeader(hWaveOut, &header, sizeof(WAVEHDR)) == WAVERR_STILLPLAYING)//release buffer rn Sleep(100);rnrnrnvoid CALLBACK waveInProc(HWAVEIN hwi,UINT uMsg,DWORD dwInstance,DWORD dwParam1,DWORD dwParam2) //反馈函数rnrn if (uMsg == WIM_OPEN)rn rn rn rn elsern if (uMsg == WIM_DATA)rn rn //realloc buffer for record ,and delete it when after playingrn lpNewBuffer = (char *)realloc(lpSaveBuffer,dwDataLength + ((PWAVEHDR)dwParam1)->dwBytesRecorded);rnrn if (lpNewBuffer ==NULL)rn rn // waveInClose(hWaveIn);rn MessageBox(NULL,"error with lpNewBuffer",NULL,MB_OK);rn rnrn lpSaveBuffer = lpNewBuffer;rnrn CopyMemory(lpSaveBuffer + dwDataLength, ((PWAVEHDR)dwParam1)->lpData,((PWAVEHDR)dwParam1)->dwBufferLength );rnrn dwDataLength +=((PWAVEHDR)dwParam1)->dwBytesRecorded ;rnrn MMRESULT i4 = waveInAddBuffer(hWaveIn,(PWAVEHDR)dwParam1,sizeof(WAVEHDR));rnrn return;rn rnrn else if (uMsg == WIM_CLOSE)rn rn //waveInUnprepareHeader(hWaveIn,pWaveHdr1,sizeof(WAVEHDR));rn free (lpBuffer1);rn rnrnrnrnint DoRecord()rnrn pWaveHdr1 = (PWAVEHDR)malloc(sizeof(WAVEHDR));rnrn lpBuffer1 = (char*)malloc(16384);rn rn //open waveform audio for input rn waveform.wFormatTag = WAVE_FORMAT_PCM;rn waveform.nChannels = 1;rn waveform.nSamplesPerSec = 8000;rn waveform.wBitsPerSample = 16;rn waveform.cbSize = 0;rn waveform.nBlockAlign = (waveform.nChannels * waveform.wBitsPerSample)/8;rn waveform.nAvgBytesPerSec = (waveform.nSamplesPerSec*waveform.nBlockAlign);rnrnrn MMRESULT inflag = waveInOpen(&hWaveIn,WAVE_MAPPER,&waveform,(DWORD)waveInProc,0, rn CALLBACK_FUNCTION); //open input devicernrn //setup the headers and prepare themrn pWaveHdr1->lpData = lpBuffer1;rn pWaveHdr1->dwBufferLength = INP_BUFFER_SIZE;rn pWaveHdr1->dwBytesRecorded = 0;rn pWaveHdr1->dwUser = 0;rn pWaveHdr1->dwFlags = 0;rn pWaveHdr1->dwLoops = 1;rn pWaveHdr1->lpNext = NULL;rn pWaveHdr1->reserved = 0;rnrnrn MMRESULT inpreflag= waveInPrepareHeader(hWaveIn,pWaveHdr1,sizeof(WAVEHDR));rnrn lpSaveBuffer = (char*)malloc(1);rnrn //add the record buffersrn MMRESULT inaddflag = waveInAddBuffer(hWaveIn,pWaveHdr1,sizeof(WAVEHDR));rnrn dwDataLength = 0;rnrn //begin sampling(开始采样)rn MMRESULT instartflag = waveInStart(hWaveIn);rnrn CreateThread(NULL,0,(LPTHREAD_START_ROUTINE)DoPlay,0,0,0);rnrn return 0;rnrnrnrnUINT DoPlay()rn rn MMRESULT outmark = waveOutOpen(&hWaveOut,WAVE_MAPPER,&waveform,0,0, rn CALLBACK_NULL);rnrn block = lpSaveBuffer;rn blockSize=dwDataLength;rnrn writeAudioBlock(hWaveOut,block,blockSize);rnrn //waveOutClose(hWaveOut);rn return 0;rnrn
安卓 音频传输 录音 播放
基于安卓,实现音频端口录音、播放功能,适合初学者
Live555实时播放采集数据
Live555实现实时视频播放. 支持千兆网工业相机. 通过本程序让工业相机支持RTSP功能,在VLC中查看采集的结果,占用的网络带宽有原来的千兆,变为低于10M。通过修改DataSrc类就可完成与工业相机的对接,比如工业相机把图片存放到内存盘中,本程序从内存盘中读数据,控制好读写的节拍,在类中通过OpenCV控制下图片的区域和大小也可实现对虚拟云台的支持。从而完成让工业相机支持虚拟云台,RTSP,X264.
试频采集和实时播放
最近搞毕业设计,不知道哪个老师无聊,我的毕业题目是试频采集和实时播放.具体的要求是:用试频采集设备采集到会场的实时信息到计算机,然后通过缓冲在大屏幕上显示出来!rn跪求大虾给出解决方案!谢谢了!^_^
VC声音信号实时采集和播放
一个vc2010实现得从麦克风采集声音并同时进行播放的程序,同时实现了波形显示功能;而且可以根据需求将采集得数据存成文件,进行进一步处理和分析; 波形显示和实时播放采集到的声音;
DirectSound实时播放、采集源码
用DirectSound库编写的音频实时播放、采集程序,对采样的参数有详细的定义。代码简单、易于理解。
如何传输多媒体文件并实时播放
比如传送一个asf文件从192.168.0.1:7777到192.168.0.2:8888,可以直接用mediaplayer加参数192.168.0.1:7777直接打开么。不能这样做的话可以怎么办呢?rnrn请高手指点
使用directshow采集音频
导入视频文件(如AVI),可获得其音频,并保存为音频文件(如MP3,WAV),求代码rn流程都清楚,但是时间紧迫需要可用代码,不要给我Graphedit的答案
java播放WAV音频的延迟问题
我的一个围棋软件需要在落子的时候播放落子音,落子音被保存在一个wav文件中。rn我的播放音频的代码如下rnprivate void playSound(String name) rn try rn URL fe = getClass().getClassLoader().getResource("sound/" + name + ".wav");rn AudioInputStream audioInputStream = AudioSystem.getAudioInputStream(fe);rn Clip clip = AudioSystem.getClip();rn clip.open(audioInputStream);rn clip.start();rn catch (UnsupportedAudioFileException | IOException | LineUnavailableException ex) rn System.out.println("Error with playing sound.");rn rn rnrn我的问题是,无论怎么修改wav文件,落子的显示跟声音的播放总是匹配不上,声音的播放比棋子的显示要慢上一点。为了提高用户体验,需要如何减低声音播放前的零点几秒的延迟呢?
使用Socket传输音频
使用Socket传输音频,使用Socket传输音频
DirectShow播放实时数据流为萨怎么解决播放延迟问题?
我的网络摄像机给我发了MpegUDP数据流,我自己改造了那个异步filtr,使得能够接收播放,但发现延时特别利害,好像有2秒钟,怎么解决啊?
FFMPEG-音频PCM实时采集保存
FFMPEG-音频PCM实时采集保存 //------------------------------------------------------------------------------------------------- 参考链接1、https://blog.csdn.net/leixiaohua1020/article/details/39702113 参考链接2、https:/...
使用DirectSound从采集到播放的延迟大致是多少?
有测试过的兄弟给个参考,谢了。我自己采样的数据的直接播放后,用示波器比较采样源和播放之间有150~200ms的延迟(30ms notify size)
基于RTP 的IP 实时音频传输研究
基于RTP 的IP 实时音频传输研究.pdf
在uClinux中实现实时音频传输的方法
在uClinux中实现实时音频传输的方法
实时音频传输的卡顿和杂音问题
实时音频传输,发送端是PC,用JAVA实现,接收端是androidrnrn发送端核心代码rnrn[code=java]rnimport javax.sound.sampled.AudioFormat;rnimport javax.sound.sampled.AudioSystem;rnimport javax.sound.sampled.DataLine;rn//...rn//发送线程rnpublic void run() rn // TODO Auto-generated method stubrn audioThread = Thread.currentThread();rn rn int rate = 8000//电话级采样率,减少流量消耗 rn int sampleSize = 16;rn boolean bigEndian = true; rn int channels = 1; rn af = new AudioFormat(AudioFormat.Encoding.PCM_SIGNED, rate, sampleSize, channels, (sampleSize / 8) * channels, rate, bigEndian);rn info = new DataLine.Info(TargetDataLine.class, af); rn tryrn line = (TargetDataLine) AudioSystem.getLine(info); rn line.open(af, line.getBufferSize());rn catch(LineUnavailableException e)rn //rn return;rn rnrn int frameSizeInBytes = af.getFrameSize(); rn int bufferLengthInFrames = line.getBufferSize() / 8; rn int bufferLengthInBytes = bufferLengthInFrames * frameSizeInBytes; rn audioBuffer = new byte[bufferLengthInBytes+1]; rn int numBytesRead;rn line.start();rn while (threadFlg) rn numBytesRead = line.read(audioBuffer, 0, bufferLengthInBytes);rn try rn audioBuffer[bufferLengthInBytes]=(byte) sampleRateLevel(rate);rn newAudioSender.sendData(audioBuffer, 0, bufferLengthInBytes+1);//发送函数,直接将line中读取的audioBuffer发送出去rn catch (IOException e) rn // TODO Auto-generated catch blockrn e.printStackTrace();rn rn if(numBytesRead==-1)rn threadFlg = false;rn break;rn rn rn line.stop(); rn line.close(); rn line = null; rnrn[/code]rnrnrnandroid接收端rn[code=java]rnimport android.media.AudioFormat;rnimport android.media.AudioManager;rnimport android.media.AudioTrack;rn//...rnpublic class ResolveAudio rn private final int channelConfig_out = AudioFormat.CHANNEL_OUT_MONO;//单声道rn private final int audioFormat = AudioFormat.ENCODING_PCM_16BIT;rn private int bufferSizeInBytes;rn private AudioTrack audioTrack;rn private boolean firstPlay = false;rnrn public ResolveAudio(int level)rn SharedParameter.sampleRateLevel(level);rn bufferSizeInBytes = AudioTrack.getMinBufferSize(8000, channelConfig_out, audioFormat);rn audioTrack = new AudioTrack(AudioManager.STREAM_MUSIC,8000, channelConfig_out, audioFormat,rn bufferSizeInBytes, AudioTrack.MODE_STREAM);rn rn rn public void play(byte[] audioData,int audioDataLen)rn if(!firstPlay)rn audioTrack.play();rn firstPlay = true;rn rn audioTrack.write(audioData, 0, audioDataLen);rn rn rn public void stop()rn firstPlay = false;rn audioTrack.stop();rn rn rn public void destroy()rn stop();rn audioTrack = null;rn rn rnrnrn//然后再接收线程的while循环里调用audioTrack.write(audioData, 0, audioDataLen);rnrn[/code]rnrnrnandroid端可以接收到PC录音采集的音频数据,但是播放不出声音,只有间断的呲啦呲啦的噪音(间隔时间还比较长)
基于RTP的实时音频传输系统研究
基于RTP的实时音频传输系统研究 更多资源请访问http://www.59186618.com
Android 音视频开发(二) : 音频 采集和播放
android录制音频有三种方式:系统自带的应用;通过MediaRecorder来进行音频的录制;AudioRecord录制音频。 1:音频格式比较 WAV格式:是PCM格式,文件大,听起来清晰。 AAC格式:相对于mp3,AAC格式的音质更好,文件更小;有损压缩;API=16才会支持播放 AMR格式:压缩比较大,但相对其他的压缩格式质量比较差,多用于人声,和通话录音。 总结比较: 2...
window 采集扬声器音频并播放
通过Core Audio中的API函数来实现采集声卡输出,采集到的音频流保存与内存,并直接播放.支持 window Vista 以上系统.
谁知道实时语音采集传输怎样实现
-
怎样修改live555实现实时采集传输
看了一个多月的live555源代码,还是比较困惑,而且网上关于live555的分析大多仅仅出自那么几篇。看来看去还是不能彻底理解live555中那么多类的相互关系。现在已经在嵌入式系统DM355上实现了视频采集和MPEG4编码,想结合live555,实现一个RTSP服务器,客户端是采用VLC观看。rn Live555中是从一个.m4e文件中读取数据的,但是我编码后得到的是一个个帧。应该修改哪个类?怎么修改?需要采用多线程吗?涉及到这些具体细节的时候,我就毫无头绪,不知道怎么办才好。有人可以指点我一下吗?万分感谢!
关于音频录音实时播放的问题
现需要在录音的同时进行播放,如何安排程序的结构?我想在处理MM_WIM_DATA的函数中进行缓冲的填充,在MM_WOM_DONE中进行播放,但是一个声音好被重播了一次,如有现成的程序,请提供一下,谢谢。rnEmail:liuguanqun1980@yahoo.com.cn.
相关热词 c++和c#哪个就业率高 c# 批量动态创建控件 c# 模块和程序集的区别 c# gmap 截图 c# 验证码图片生成类 c# 再次尝试 连接失败 c#开发编写规范 c# 压缩图片好麻烦 c#计算数组中的平均值 c#获取路由参数

相似问题

6
使用 C# 采集网站返回的json数据
3
USB_2066数据采集卡ReadAD()函数读取的数据为什么全是32767啊?
3
labview如何在采集5组数据后(每组数据100个),5组取平均,只存一组数量为100的数据
2
为什么用libfaac编码的aac音频文件用播放器播放时速度却比正常速度快?
0
如何将XCOM串口调试调试助手采集到的十六进制激光雷达数据转换为极坐标?
1
大佬们好 我想问一下 我用MATLAB写了个exe文件 labview要怎么把采集到的数据传给这个exe文件
0
如何实现把电脑声音重定向到手机(已初步实现,存在问题)
0
Android:使用 AudioRecord 采集音频PCM并保存到Treemap中,但播放出现异常
3
stm32图像采集无线传输系统毕设求指导
3
winform 绘制实时曲线图,数据点多了之后开始卡顿。
1
如何做windows端局域网语音通信?
1
Unity中实现多相机视角的视频采集及传输
0
想设计一款高速数据采集、传输、处理的板卡,想用C665x/C6678+FPGA,有相关创龙资料可参考吗?
0
如何通过FSMC实现STM32与FPGA的同时相互读写数据?
0
如何在FPGA上将传感器采集到的数据通过串口发送?
0
请问一下Android手机采集的音视频格式?
1
C#上位机编程时,怎么特定地读取采集到的数据
3
C# 采集网站,需使用二维码登陆,怎么实现?
1
使用python wmi采集的硬盘序列号结果不对
2
MFC窗口怎么显示halcon采集到的图片