采集后使用wifi传输上来的音频数据流如何实时播放(延迟5秒内)

具体是这样的。
声音采集然后过了adc之后在stm32单片机里只经过了adpcm编码,然后通过wifi模块传到电脑或者手机上,要求实时播放延迟少于5秒。请问电脑播放端用什么实现呢,流程大概会是怎么样。
还有疑惑就是关于我只经过了adpcm编码的话上来的数据包怎么知道顺序呢。
小白求解。

0

2个回答

http://www.docin.com/p-1099065630.html 看下这个论文,可以解答你的几个问题。

2

简单的实现方法:使用VLC搭建RTSP服务器,服务器端创建媒体流,测试端打开播放网络流文件。

0
lyr83530081
lyr83530081 这,那不是要在stm32上实现流媒体服务器?
大约一年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
AudioTrack 从Socket播放实时声音(JAVA 服务器)
最近在自己写一个远程教学系统,将老师电脑屏幕,鼠标动作和讲课声音传输到学生端,学生要是有问题可以通过文字形式发给教师端。   有个问题卡了我两天多了,刚刚才解决,在这里记录一下,方便其他和我有一样问题的朋友。   服务器(java)发出音频,安卓端和PC(java)接受音频,PC的客户端能很好地接受音频但是安卓却只有噪声,谷歌百度了好久试了各种解决方案都不行,原因是网上大部分代码都是安...
Qt + SDL实现的实时录音并播放的程序,类似KTV唱歌
熟话说:没有什么比研究源代码本身更好的了。 所以这里不啰说了,直接上代码了。 Qt + SDL实现的KTV程序 【说明】 采集音频用的是QAudioInput 播放音频用SDL, 不用QAudioOutput是因为QAudioOutput播放声音必须是IO 他需要先打开,然后才能播放,打开的过程需要时间,所以不流畅。 【bug】 播放的时候依然会有一些杂音,暂
树莓派实时音频采集并实时传输至ubuntu
前言 想通过usb音频采集卡连接树莓派后实时采集音频,并通过音频流的方式将采集到的音频实时传输到另外一台电脑。 什么是树莓派? 树莓派是一款基于ARM的微型电脑主板,以SD/MicroSD卡为内存硬盘,卡片主板周围有1/2/4个USB接口和一个10/100 以太网接口(A型没有网口),可连接键盘、鼠标和网线,同时拥有视频模拟信号的电视输出接口和HDMI高清视频输出接口,以上部件全部整合在一张仅比信...
iOS 实时音频采集与播放
在iOS中有很多方法可以进行音视频采集。如 AVCaptureDevice, AudioQueue以及Audio Unit。其中 Audio Unit是最底层的接口,它的优点是功能强大,延迟低; 而缺点是学习成本高,难度大。对于一般的iOS应用程序,AVCaptureDevice和AudioQueue完全够用了。但对于音视频直播,最好还是使用 Audio Unit 进行处理,这样可以达到最佳的效。
iOS 实时音频采集与播放Audio Unit使用
前言   在iOS中有很多方法可以进行音视频采集。如 AVCaptureDevice, AudioQueue以及Audio Unit。其中 Audio Unit是最底层的接口,它的优点是功能强大,延迟低; 而缺点是学习成本高,难度大。 对于一般的iOS应用程序,AVCaptureDevice和AudioQueue完全够用了。但对于音视频直播,最好还是使用 Audio Unit 进行处理,这样...
Android音频实时传输与播放(一)
服务端共开放两个端口,一个udp上行端口用来接收amr音频流,另一个tcp下行端口用来发送amr音频流。 我这里写的服务端实现了组播的功能,即一个人在录音,可以同时让很多人同时听到。 简而言之,服务端做的唯一一件事情就是转发音频流,囧rz。。。 在这里,我只贴出一部分代码,后面我会上传资源供大家下载。 接收udp传送的音频码流:
android 通过数组,流播放声音的方法,音频实时传输(转)
http://www.2cto.com/kf/201202/120310.html AudioRecord和AudioTrack类是Android获取和播放音频流的重要类,放置在android.media包中。与该包中 的MediaRecorder和MediaPlayer类不同,AudioRecord和AudioTrack类在获取和播放音频数据流时无需通过文件保 存和文件读取,可以动态地
实时在线音频延时的处理(借用speex)
实际项目中出现实时在线音频播放会有累加延时的问题,越久延时越长。 经过各方面检查发现是设备发送音频数据频率不稳定产生的: 比如本来应该是每秒5包音频包的数据过来的,但是某一秒设备没把数据及时发过来,造成这一秒内没数据播放,但是下秒又多了数据,但是播放速度是固定的,所以相当于延时了一秒,这种情况出现多了延时就会变长。 后来分析了下网络出现这种情况比较常见,特别这个项目是用3G网络可能性还是蛮大
把Android 采集的音频,通过RTP推送到远程进行实时播放
主要步骤 通过AudioRecord采集音频数据 把采集的音频写入文件通过AudioTrack进行播放 把采集的数据包加RTP头,通过udp发送到远程 可以用vlc对接收到的数据进行实时播放 注意事项 权限添加(android6.0及以上系统需要动态申请录音,读写文件的权限) <uses-permission android:name...
QT实现音频实时传输
该代码支持音频 的实时传输,采用UDP协议方式,当收到音频数据时自动发送到接收端
基于iOS的网络音视频实时传输系统(二)- 捕获音视频数据
获取音视频数据,这里使用的是AVCaptureSession,可以方便地自定义相机界面,看起来大概是这样的:
电脑端采集手机视音频并同步
工程环境:VS2010 依赖库:ffmpeg 第三方软件:IP摄像头 简单描述:调用手机摄像头和话筒,在PC端完成视音频流的提取和同步,生成MP4封装(视频编码格式H264,音频编码格式acc)的文件。 这次项目的难点在于自己第一次接触视音频方面,因此比较陌生,关于视音频流的基础知识,多亏了雷博士的博客帮助,让我能够很快建立起一套流程过程。 附下雷博士的博客:http://blog.cs
linux 如何解决音频传输延迟,请高手指教,下面是我的客户端程序
这是客户端程序,服务端程序也差不多,两端可以实现音频传输,但是延迟很大,大概有5秒,要怎样改程序才能尽量减少延迟????????????????? -----------------------------------------------------------------------------------------------------------------------------
用WindowsSocket实现局域网上的语音实时传输
介绍了在局域网上使用实现语音的实时采集、传输和接收与播放,较好地解决了声音连续性的问题。
实时播放音频数据
1、定义播放器回调函数            WaveFormat m_Format = new WaveOutPlayer.WaveFormat(1000, 1);            m_Player = new WaveOut(-1, m_Format, 1000* 2, 2, new BufferFillEventHandler(Filler));//将送出数据的方法代理给WaveOu...
linux下实时音频传输的实现
linux下实时音频传输的实现,运用linux音频接口OSS进行编程。
Linux使用ffplay实时采集音频并实时播放
ffplay -f alsa -ac 2 -i hw:1,0 -ar 44100
Android音频实时传输与播放(二):服务端
原文链接:http://blog.csdn.net/zgyulongfei/article/details/7750707 我偷懒就用java写了个简单的服务器,大家明白原理就好。 服务端共开放两个端口,一个udp上行端口用来接收amr音频流,另一个tcp下行端口用来发送amr音频流。 我这里写的服务端实现了组播的功能,即一个人在录音,可以同时让很多人同时听到。 简而言之,
实时录音与播放的内存实现 Qt代码
实时录音与播放的内存实现 Qt代码。下载前请先阅读http://blog.csdn.net/kakadiablo/article/details/7561509#comments
DirectSound播放PCM(可播放实时采集的音频数据)
前言  该篇整理的原始来源为http://blog.csdn.net/leixiaohua1020/article/details/40540147。非常感谢该博主的无私奉献,写了不少关于不同多媒体库的博文。让我这个小白学习到不少。现在将其整理是为了收录,以备自己查看。一、DirectSound简介  DirectSound是微软所开发DirectX的组件之一,可以在Windows 操作系统上录音...
Android音频实时传输与播放--客户端
Android音频实时传输与播放, 实现音频的硬编码和实时播放。 博客地址: blog.csdn.net/zgyulongfei
Linux系统 QT+Faac实时音频采集编码(FAAC实时编码篇)
上一次发了QT音频采集篇,本次是它的后续内容。未读过前篇的可以到此链接:Linux系统 QT+Faac实时音频采集编码(QT音频采集篇)Linux下编译FAAC库:linux下编译faac库一:FAAC使用流程图:二:项目代码本次项目基于上次的QT音频采集,把采集到的PCM数据存到本地文件,同时进行实时编码,再保存一个编码后的AAC文件,把两者进行对比,可以看到编码的效果。.pro 文件包含lib...
android 实时采播录音播放或发送出去
声音采集与播放" title="Android 声音采集与播放" style="margin:0px; padding:0px; border:0px; list-style:none"> 声音采集与播放" title="Android 声音采集与播放" style="margin:0px; padding:0px; border:0px; list-style:none"> 只能在真机上
QT实现视音频实时传输(qml+C++)
qml无法实现音频的实时传输(只有播音没有录音API),所以在QT中另开了一条线程利用C++实现了音频的实时传输,同时里面包含了之前采用qml实现的播放网络流的代码(整合在一起了),我是 从板子上传输到PC上,如果是PC传PC或者是其他只需要改变QT编译版本(嵌入式版本和桌面版本)
使用DirectX播放音频数据流
使用DirectX播放音频数据流使用directX插件可以播放音频数据流
delphi实现音频传输
 语音聊天在今天是一个很普通的话题,小厮写了一段音频采集、网络传输和播放的程序,实现和简单的语音聊天,但是语音信息没有经过很好的压缩,所以,在局域网外,由于网速问题,效果可能不会很理想下面我们切入正题。小厮使用的是ACM组件,ACMWaveOut——播放ACMWaveIn——采集ACMDialog——音频格式设置客户端:定义一个开始按钮,设置
C#实现播放音频流
一个是demo,一个是库类,语音流来自百度语音合成,支持mp3类型的流播放,Pcm流,和其他的及几改,不会的问我。几组啦。是mp3流其他的流自己改!,嗯~ 然后呢调用了一下NAudio,嗯,没了,觉得好记得评论
LINUX下实时录放音(OSS)—解决时延问题
如果没有强制设置buffer大小,系统默认的缓冲buffer的大小是2*4096=8192字节,其中2表示的是fragement的数量,4096是每个fragementsize的大小。系统读取音频数据之后,放音的时候,先放入缓冲buffer中,当缓冲buffer填满时,系统才会产生中断,播放音频。所以这里会存在一个延迟。
串口传输音频
服务端读取音频文件,通过串口发送出去,客户端通过串口接收音频文件并播放音频。main随便写的,主要是提供了串口操作的C++类和wav音频文件处理的C++类。
TCP音频流媒体和播放器(IP语音聊天)
这是通过TCP发送和接收音频数据的专有VoIP项目。这是我的第一篇文章播放或捕获音频声音的延伸作为组播发送和接收(RTP)。此应用程序不是通过多播而是通过TCP来传输音频数据。所以你可以确定没有数据丢失,你可以通过子网和路由器转移它们。音频编解码器是U-Law。采样率可以从5000到44100选择。服务器可以在您的本地PC上运行。您可以在运行cmd.exe的帮助下输入“ipconfig”来获取当前的IP4地址。您应该使用静态IP地址,以便可能的客户端在几天后重新连接后不必更改其设置。客户端必须连接到正在运行
MFC播放声音和录音的实现(三)
上一篇通过Win32控制台程序简单地完成了声音的录取和回放,但是这个过程都只是是在内存中进行的,没有进行文件的操作,这样录取的声音也就无法保存。这一篇介绍一下用MFC实现录音并生成wave文件,最后存储到指定的目录的方法。 新建一个MFC对话框应用程序,命名为VoiceRecord, 打开资源视图,Dialog目录下的IDD_VOICERECORD_DIALOG,往这个对话框中添加3个Butto
QT+多线程实现音频实时传输
原创博文,严禁私自转载,转载请注明出处!!! 结合上篇文章,在实现了在qml中采用Qt中模块multimedia实现了网络摄像头视频流的播放之后,又继续调试音频的实时传输,本意是想和摄像头一样在qml中直接调用API实现,但是通过查找资料,逛遍各大论坛,发现qml中只有播放音频的API,没有录音的API,遂放弃此一劳永逸的方法,然后采用Qt C++的形式,采用Udp传输协议,传输数据格式为wav...
音频实时传输和播放AMR硬编码与硬解码
在Android中我所知道的音频编解码有两种方式: (一)使用AudioRecord采集音频,用这种方式采集的是未经压缩的音频流;用AudioTrack播放实时音频流。用这两个类的话,如果需要对音频进行编解码,就需要自己移植编解码库了,比如可以移植ilbc,speex等开源编解码库。  ilbc的编解码实现可以查看这个专栏:http://blog.csdn.net/column/details
webrtc 音频视频数据流流程图
这两个文档主要是整理了webrtc音视频数据流代码走向,方便了解整个代码流及后续扩展分析其他的功能。 音频流文档: http://download.csdn.net/detail/ab7936573/9854482 视频流文档: http://download.csdn.net/detail/ab7936573/9854484 如流程结构画的有问题请留言 所用的代码请从http://bl
Alsa 遇上Android的音频延迟问题
Alsa 遇上Android的音频延迟问题Alsa开始是被Android使用的,后来觉得其复杂,就没有使用了,改用tinyalsa。再后来Android暴露出一个问题,音频相关延迟比较大,iOS可以做到10ms,而Android手机平均还要150ms。Android上实现的OpenSL ES也只是比Java API快一点,并不理想。后来Android添加了FastMixer和AUDIO_OUT_PU
Android摄像头采集的视频数据流如何通过Socket实时发送到目标服务端
分两块: 1.取得摄像头采集的视频流 2.发送到服务器端 protected MediaRecorder mMediaRecorder; private LocalServerSocket mLss = null; private LocalSocket mReceiver, mSender = null; mLss = new LocalServerSock
使用ffmpeg捕获USB外部摄像头视频流实时播放
// 捕获存入文件后播放 1、捕获:ffmpeg -f video4linux2 -s 320*300 -i /dev/video0 test.asf 2、播放:ffplay test.asf // 捕获后实时播放 1、ffplay -f video4linux2 -framerate 30 -video_size hd720 /dev/video0
(三)Android局域网内语音对讲 基于UDP语音传输
之前研究了基于UDP的文字传输点击打开链接,以及Android端的语音录制点击打开链接,这篇文章就记录一下Android端局域网内的语音传输,简单的实现语音对讲,当然里面还存在着很多问题,包括语音不清晰啊、杂音多啊,不管了,先听见声音就行了。测试的时候两部手机,上图:程序写了两个线程,一个用于录制AudioRecordThread,一个用于播放AudioTrackThread.(一)录制与发送@O...
本地音视频远程传输 QT技术
本文介绍了一种采用Qt5.0的Multimedia多媒体技术实现音视频采集和本地播放,采用FFmepg开源库把所采集的原始视频数据进行编码成H.264压缩格式,采用G.711编码方式把所采集的原始音频数据编码,再把编码之后的音视频压缩数据进行网络传输的技术。   利用QT技术开发而成的即时通讯demo,可参考下载AnyChat 音视频SDK包中的源代码,anychatcoresdk_linu...
java音频流的应用
AudioInputStream 读取本地音频文件并播放运用AudioInputStream时,需要用到的类及接口说明如下(具体可查看API文档): - AudioFormat :声音流中指定特定数据安排的类,通过检查以音频格式存储的信息,可以发现在二进制声音数据中解释位的方式 - SourceDataLine 接口:源数据是可以写入数据的数据行。它充当其混频器的源。应用程序将音频字节写入源数据
文章热词 机器学习教程 Objective-C培训 交互设计视频教程 颜色模型 设计制作学习
相关热词 mysql关联查询两次本表 native底部 react extjs glyph 图标 大数据视频实时采集工具 教育大数据的采集