HTML5 Audio多音频同时播放延迟问题

平台:安卓、IOS
开发语言:HTML5
问题描述:多个音频同时播放出现6~16ms左右的延迟,希望能缩到2ms内
问题代码:
function play( url1,url2,url3,url4,url5,url6,url7 ){
p = plus.audio.createPlayer(url1);
p1 = plus.audio.createPlayer(url2);
p2 = plus.audio.createPlayer(url3);
p3 = plus.audio.createPlayer(url4);
p4 = plus.audio.createPlayer(url5);
p5 = plus.audio.createPlayer(url6);
p6 = plus.audio.createPlayer(url7);
p7 = plus.audio.createPlayer(url1);
p8 = plus.audio.createPlayer(url2);
p9 = plus.audio.createPlayer(url2);
setTimeout(function(){
p1.play();
p.play();
p3.play();
p4.play();
p5.play();
p6.play();
p7.play();
p8.play();
p9.play();
},1000);
}

求各位大大帮助,感激不尽。

3个回答

创建多个播放器,交替载入,交替播放

jinhon06
jinhon06 小弟的知识量有限,求具体的方法,谢谢。
4 年多之前 回复

一个音频一个声音,同一个页面为什么要那么多的声音同时播放,不符合逻辑

@Jason_WangG
小弟的知识量有限,求具体的方法,谢谢。

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
关于html5的audio标签音频兼容性问题
<!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <title>音频播放测试</title> </head> <body> <audio style="width:300;height:10;text-align:center;" controls="controls"> <source src="music.mp3" /> 您的浏览器不支持 audio 标签。 </audio> </body> </html> 同样一段代码放桌面测试是没有问题的,放到项目底下,播放器就不好用了(出不来),求前辈们指点一二
h5的audio标签怎么播放音频文件的base64字符串
h5的audio标签怎么播放音频文件的base64字符串 <audio id="audio" src="" controls="controls"></audio>
html5 音乐标签中延迟播放
html5 如何实现本地音乐的延迟播放。 ...... <body> ...... <audio src="1.mp3"></audio>//这里怎么添加代码 </body> ...... ![图片说明](http://forum.csdn.net/PointForum/ui/scripts/csdn/Plugin/003/monkey/8.gif)![图片说明](http://forum.csdn.net/PointForum/ui/scripts/csdn/Plugin/003/onion/3.gif)
pad上使用html5 audio play方法声音播放有延时
pad上使用html5 audio play方法声音播放有延时,播放的是本地缓存里的音乐也有延时,有没有大侠给个解决方案啊
audio 播放ios上传到服务器的音频
ios端上传的音频 在服务器端使用audio标签无法播放 ![图片说明](https://img-ask.csdn.net/upload/201702/23/1487821737_577423.png) 这是图片的编码格式 音频无法播放 有可能是ios上传的音频编码格式不对吗? ios大神,各路大神拜托了。。。
jsp中audio标签播放音频文件
HTTP "Content-Type" 中的 "text/html" 不支持。媒体资源 http://youxin.telecomjs.com/audio/audio.mp3 加载失败。
webAPP开发 html5 audio
webAPP开发中 怎么使用html5中的audio实现录音与录音播放功能
HTML5音频文件不能在android4.0.4本地浏览器播放
一个关于HTML5的工程 在android系统本地浏览器,多次播放相同的音频文件,在Android ICS 4.0.4版本中,只播放一次,再次启动音频就不会播放,在Android ICS 4.0.3版本和更新的4.1.1版本中就正常。 测试设备: Samsung Galaxy(Android 4.0.4):只播放一次 HTC(Android 4.0.4):只播放一次 索尼(Android 4.0.3):正常播放 HTC Sensation (Android 4.0.3): 正常播放 Samsung Nexus Phone (Android 4.1.1): 正常 搜索了一些之后好像是android4.0.4版本的问题 有没有方法让所有方法都能正常播放? 可以用http://www.w3schools.com/html/tryit.asp?filename=tryhtml5_audio_all 试验。
HTML5 audio src写绝对路径无效的问题,求解
<audio id="audioPlay" src="E:/REC201809/20180928/102-83952840-B-13711113385---20180928173500.wav" controls="controls" autoplay="autoplay">Your browser does not support the audio element.</audio> ![图片说明](https://img-ask.csdn.net/upload/201809/29/1538207502_133092.png) 以上代码实现了音频插件的显示,但src填写本地路径始终不能点击播放,求解决方案
android用webview加载html无法播放音频
想用webview加载一个html网页,但是网页加载成功了却无法播放音频,在网上查找了一下说不支持html5的video标签,于是改成了video,可是还是不行,求大神帮助0.0 html播放音频的代码如下 <video autoplay="autoplay"> <source src="http://labs.nikrowell.com/lightsandmotion/ultraviolet/udio/Ultraviolet.ogg" type="audio/ogg"> <source src="http://www.kbzn.cn/downloads/icouldbetheone.mp3 " type="audio/mpeg"> </video>
未安装任何音频输出设备
各位老铁,这个问题可能不是那么专业。但是实在是困扰了我很长时间。 我的笔记本不出声音了,我尝试捣鼓了很久,包括用驱动精灵,去官网下载audio驱动,还有笔记本自我检测,都没有效果。 其中的设备管理器、驱动精灵、包括一些属性的截图如下: ![图片说明](https://img-ask.csdn.net/upload/201912/30/1577703882_87236.png) ![图片说明](https://img-ask.csdn.net/upload/201912/30/1577703891_710806.png) ![图片说明](https://img-ask.csdn.net/upload/201912/30/1577703897_914190.png)![图片说明](https://img-ask.csdn.net/upload/201912/30/1577703904_107160.png) ![图片说明](https://img-ask.csdn.net/upload/201912/30/1577703921_465162.png) 可有其他方法解决声音问题?跪求大佬帮我解决。。。当然目前我还没排除是不是我物理声卡坏了。。这不太可能吧? ???为啥我c币是0???
java 使用sun.audio播放.au
如题,如何使用sun.audio.audioplay播放音频文件,音频文件应该放在哪个目录下?调用函数时传相对路径么
ios端 audio标签自动播放功能
最近开发遇到了一个问题。html5中的audio标签,在安卓机上可以自动播放视频,但是在iphone端 却不能播放。请问给位大侠,如何攻克???
Android Audio方面学习有什么书推荐的吗
工作被分配到音频方面,看代码什么的都看不懂,请问有没有什么关于音频方面的知识啊
FFmpeg - 为什么从pcm提取音频,编码为mp3以后,时长变多了,声音也颤抖
``` #include <memory> extern "C" { #include "libavcodec/avcodec.h" #include "libavformat/avformat.h" #include "libavutil/imgutils.h" #include "libswresample/swresample.h" #include "libavutil/opt.h" #include "libavutil/avassert.h" #include "libavutil/audio_fifo.h" } // 函数退出后执行 #define DEFER(T, P, Fn) std::shared_ptr<T> P##deletor(P, [&](T *) {Fn;}) // 打印异常信息,并退出main函数 #define FATAL(M, ...) printf(M, ##__VA_ARGS__); return -1 // 自定义变量 const char *src_media = "E:/2.pcm"; const char *dst_media = "E:/3.mp3"; // PCM的原始参数 #define PCM_IN_FORMAT AV_SAMPLE_FMT_S16 #define PCM_IN_CHANNEL_LAYOUT AV_CH_LAYOUT_MONO #define PCM_IN_NB_SAMPLES 1024 #define PCM_IN_SAMPLE_RATE 44100 int main(int argc, char **argv) { // 申请一个输出的上下文 AVFormatContext *fmt_ctx = nullptr; avformat_alloc_output_context2(&fmt_ctx, nullptr, nullptr, dst_media); if (fmt_ctx == nullptr) { FATAL("alloc output format context failed."); } DEFER(AVFormatContext, fmt_ctx, avio_closep(&fmt_ctx->pb); avformat_close_input(&fmt_ctx)); // 查询编码器 AVCodec *audio_enc; if ((audio_enc = avcodec_find_encoder(fmt_ctx->oformat->audio_codec)) == nullptr) { FATAL("find audio encoder failed."); } AVStream *audio_stream = avformat_new_stream(fmt_ctx, audio_enc); audio_stream->id = fmt_ctx->nb_streams - 1; // 为编码器申请上下文 AVCodecContext *audio_enc_ctx = nullptr; if ((audio_enc_ctx = avcodec_alloc_context3(audio_enc)) == nullptr) { FATAL("allocate audio enc context failed."); } DEFER(AVCodecContext, audio_enc_ctx, avcodec_free_context(&audio_enc_ctx)); // 为编码器配置编码参数 audio_enc_ctx->sample_fmt = audio_enc->sample_fmts ? audio_enc->sample_fmts[0] : AV_SAMPLE_FMT_FLTP; audio_enc_ctx->bit_rate = 128000; audio_enc_ctx->sample_rate = 44100; audio_enc_ctx->channel_layout = AV_CH_LAYOUT_STEREO; audio_enc_ctx->channels = av_get_channel_layout_nb_channels(audio_enc_ctx->channel_layout); if (fmt_ctx->oformat->flags & AVFMT_GLOBALHEADER) { audio_enc_ctx->flags |= AV_CODEC_FLAG_GLOBAL_HEADER; } audio_stream->time_base = AVRational{1, audio_enc_ctx->sample_rate}; // 打开编码器 if (avcodec_open2(audio_enc_ctx, audio_enc, nullptr) < 0) { FATAL("codec open failed."); } if (avcodec_parameters_from_context(audio_stream->codecpar, audio_enc_ctx) < 0) { FATAL("copy params failed."); } if (avio_open(&fmt_ctx->pb, dst_media, AVIO_FLAG_WRITE) < 0) { FATAL("open dst file failed."); } // 写入头信息 if (avformat_write_header(fmt_ctx, nullptr) < 0) { FATAL("write header failed."); } // 申请一个音频frame AVFrame *audio_frame = nullptr; if ((audio_frame = av_frame_alloc()) == nullptr) { FATAL("allocate frame failed."); } DEFER(AVFrame, audio_frame, av_frame_free(&audio_frame)); audio_frame->format = audio_enc_ctx->sample_fmt; audio_frame->channel_layout = audio_enc_ctx->channel_layout; audio_frame->nb_samples = audio_enc_ctx->frame_size; audio_frame->sample_rate = audio_enc_ctx->sample_rate; // 给frame的data和size分配空间 if (av_frame_get_buffer(audio_frame, 0) < 0) { FATAL("allocate frame data failed."); } // 创建swr的上下文 SwrContext *swr_cxt = swr_alloc(); DEFER(SwrContext, swr_cxt, swr_free(&swr_cxt)); // 获取输入与输出的采样格式 enum AVSampleFormat in_sample_fmt = PCM_IN_FORMAT; enum AVSampleFormat out_sample_fmt = audio_enc_ctx->sample_fmt; // 获取输入与输出的采样率 int in_sample_rate = PCM_IN_SAMPLE_RATE; int out_sample_rate = audio_enc_ctx->sample_rate; // 获取输入与输出的声道格式 uint64_t in_ch_layout = PCM_IN_CHANNEL_LAYOUT; uint64_t out_ch_layout = audio_enc_ctx->channel_layout; // 设置swr的配置项 swr_alloc_set_opts(swr_cxt, out_ch_layout, out_sample_fmt, out_sample_rate, in_ch_layout, in_sample_fmt, in_sample_rate, 0, nullptr); // 初始化swr swr_init(swr_cxt); // 申请一个packet,并初始化 AVPacket pkt; av_init_packet(&pkt); pkt.data = nullptr; pkt.size = 0; FILE *input = nullptr; if ((input = fopen(src_media, "rb")) == nullptr) { FATAL("no readable file."); } DEFER(FILE, input, fclose(input)); // 从文件中读取出来的数据,临时存储在该帧中 AVFrame *temp_frame = av_frame_alloc(); DEFER(AVFrame, temp_frame, av_frame_free(&temp_frame)); temp_frame->format = PCM_IN_FORMAT; temp_frame->nb_samples = PCM_IN_NB_SAMPLES; temp_frame->channel_layout = PCM_IN_CHANNEL_LAYOUT; temp_frame->channels = av_get_channel_layout_nb_channels(PCM_IN_CHANNEL_LAYOUT); // 给frame的data和size分配空间 if (av_frame_get_buffer(temp_frame, 0) < 0) { FATAL("allocate frame data failed."); } // 循环读取frame数据 int frame_count = 0; while (true) { if (av_frame_make_writable(audio_frame) < 0) { FATAL("frame is not writable"); } if (fread(temp_frame->data[0], 1, (size_t) temp_frame->linesize[0], input) < 0) { FATAL("read input file failed."); } else if (feof(input)) { break; } swr_convert(swr_cxt, audio_frame->data, audio_frame->nb_samples, (const uint8_t **) temp_frame->data, temp_frame->nb_samples); audio_frame->pts = av_rescale_q(frame_count, (AVRational){1, audio_enc_ctx->sample_rate}, audio_enc_ctx->time_base); frame_count += audio_frame->nb_samples; // 发送一个frame if (avcodec_send_frame(audio_enc_ctx, audio_frame) < 0) { FATAL("send frame exception."); } // 接受编码完的内容 while (true) { auto packet_ret = avcodec_receive_packet(audio_enc_ctx, &pkt); // 判断是否完全接受了packet if (packet_ret == AVERROR(EAGAIN) || packet_ret == AVERROR_EOF) { break; } // 检查是否接受异常 if (packet_ret < 0) { FATAL("receive packet exception."); } av_packet_rescale_ts(&pkt, audio_enc_ctx->time_base, audio_stream->time_base); pkt.stream_index = audio_stream->index; av_interleaved_write_frame(fmt_ctx, &pkt); av_packet_unref(&pkt); } } // 发送一个空的frame,告知编码器,已经编码完成,清空缓冲区 if (avcodec_send_frame(audio_enc_ctx, nullptr) < 0) { FATAL("send frame exception."); } // 接受编码完的内容 while (true) { auto packet_ret = avcodec_receive_packet(audio_enc_ctx, &pkt); // 判断是否完全接受了packet if (packet_ret == AVERROR(EAGAIN) || packet_ret == AVERROR_EOF) { break; } // 检查是否接受异常 if (packet_ret < 0) { FATAL("receive packet exception."); } av_packet_rescale_ts(&pkt, audio_enc_ctx->time_base, audio_stream->time_base); pkt.stream_index = audio_stream->index; av_interleaved_write_frame(fmt_ctx, &pkt); av_packet_unref(&pkt); } av_write_trailer(fmt_ctx); return 0; } ``` ### 问题已经解决,请看下面的代码 ```cpp #include <memory> extern "C" { #include "libavcodec/avcodec.h" #include "libavformat/avformat.h" #include "libswresample/swresample.h" } // 申请智能指针变量 #define NEW_PTR(T, P, V, Fn) T *P = V; std::shared_ptr<T> P##P(P, [&P](T *){if(P != nullptr){Fn;}}) // 打印异常信息,并退出main函数 #define FATAL(M, ...) printf(M, ##__VA_ARGS__); return -1 // 自定义变量 const char *src_media = "D:/2.pcm"; const char *dst_media = "D:/2.mp3"; // PCM的原始参数 #define PCM_IN_FORMAT AV_SAMPLE_FMT_S16 #define PCM_IN_CHANNELS 1 #define PCM_IN_SAMPLE_RATE 44100 int main(int argc, char **argv) { // 申请一个输出的上下文 NEW_PTR(AVFormatContext, fmt_ctx, nullptr, avio_closep(&fmt_ctx->pb); avformat_close_input(&fmt_ctx)); avformat_alloc_output_context2(&fmt_ctx, nullptr, nullptr, dst_media); if (fmt_ctx == nullptr) { FATAL("alloc output format context failed."); } // 查询编码器 AVCodec *audio_enc; if ((audio_enc = avcodec_find_encoder(fmt_ctx->oformat->audio_codec)) == nullptr) { FATAL("find audio encoder failed."); } // 为编码器申请上下文 NEW_PTR(AVCodecContext, audio_enc_ctx, nullptr, avcodec_free_context(&audio_enc_ctx)); if ((audio_enc_ctx = avcodec_alloc_context3(audio_enc)) == nullptr) { FATAL("allocate audio enc context failed."); } // 为编码器配置编码参数 audio_enc_ctx->sample_fmt = audio_enc->sample_fmts ? audio_enc->sample_fmts[0] : AV_SAMPLE_FMT_FLTP; audio_enc_ctx->bit_rate = 64000; audio_enc_ctx->sample_rate = 44100; audio_enc_ctx->channel_layout = AV_CH_LAYOUT_STEREO; audio_enc_ctx->channels = av_get_channel_layout_nb_channels(audio_enc_ctx->channel_layout); if (fmt_ctx->oformat->flags & AVFMT_GLOBALHEADER) { audio_enc_ctx->flags |= AV_CODEC_FLAG_GLOBAL_HEADER; } // 打开编码器 if (avcodec_open2(audio_enc_ctx, audio_enc, nullptr) < 0) { FATAL("codec open failed."); } AVStream *audio_stream = avformat_new_stream(fmt_ctx, audio_enc); audio_stream->id = fmt_ctx->nb_streams - 1; audio_stream->time_base = AVRational{1, audio_enc_ctx->sample_rate}; if (avcodec_parameters_from_context(audio_stream->codecpar, audio_enc_ctx) < 0) { FATAL("copy params failed."); } if (avio_open(&fmt_ctx->pb, dst_media, AVIO_FLAG_WRITE) < 0) { FATAL("open dst file failed."); } // 写入头信息 if (avformat_write_header(fmt_ctx, nullptr) < 0) { FATAL("write header failed."); } // 申请一个音频frame NEW_PTR(AVFrame, audio_frame, nullptr, av_frame_free(&audio_frame)); if ((audio_frame = av_frame_alloc()) == nullptr) { FATAL("allocate frame failed."); } audio_frame->format = audio_enc_ctx->sample_fmt; audio_frame->channel_layout = audio_enc_ctx->channel_layout; audio_frame->nb_samples = audio_enc_ctx->frame_size; audio_frame->sample_rate = audio_enc_ctx->sample_rate; if (av_frame_get_buffer(audio_frame, 0) < 0) { FATAL("audio frame get buffer failed."); } // 创建一个frame,用来存储从pcm读取的数据 NEW_PTR(AVFrame, buf_frame, nullptr, av_frame_free(&buf_frame)); if ((buf_frame = av_frame_alloc()) == nullptr) { FATAL("allocate buf frame failed."); } buf_frame->format = PCM_IN_FORMAT; buf_frame->nb_samples = audio_frame->nb_samples; buf_frame->channel_layout = (uint64_t) av_get_default_channel_layout(PCM_IN_CHANNELS); buf_frame->sample_rate = PCM_IN_SAMPLE_RATE; if (av_frame_get_buffer(buf_frame, 0) < 0) { FATAL("create buf frame buffer failed."); } // 从pcm文件中读取适应音频帧的尺寸数据 auto readSize = av_samples_get_buffer_size(nullptr, buf_frame->channels, buf_frame->nb_samples, (AVSampleFormat) buf_frame->format, 1); NEW_PTR(uint8_t , buf, (uint8_t*)av_malloc((size_t)readSize), av_freep(&buf)); // 创建swr的上下文 NEW_PTR(SwrContext, swr_ctx, swr_alloc(), swr_free(&swr_ctx)); swr_alloc_set_opts(swr_ctx, audio_frame->channel_layout, (AVSampleFormat)audio_frame->format, audio_frame->sample_rate, av_get_default_channel_layout(PCM_IN_CHANNELS), PCM_IN_FORMAT, PCM_IN_SAMPLE_RATE, 0, nullptr); swr_init(swr_ctx); // 申请一个packet,并初始化 AVPacket pkt; av_init_packet(&pkt); pkt.data = nullptr; pkt.size = 0; NEW_PTR(FILE, input, nullptr, fclose(input)); if ((input = fopen(src_media, "rb")) == nullptr) { FATAL("no readable file."); } // 循环读取frame数据 int audio_pts = 0; while (true) { // 用来编码的帧 AVFrame * encode_frame = nullptr; if (fread(buf, 1, (size_t) readSize, input) < 0) { FATAL("read input file failed."); } else if (!feof(input)) { // 文件没有到结尾,则获取编码帧 av_samples_fill_arrays(buf_frame->data, buf_frame->linesize, (const uint8_t*)buf, buf_frame->channels, buf_frame->nb_samples, (AVSampleFormat)buf_frame->format, 1); swr_convert(swr_ctx, audio_frame->data, audio_frame->nb_samples, (const uint8_t**)buf_frame->data, buf_frame->nb_samples); audio_frame->pts = audio_pts; audio_pts += av_rescale_q(audio_frame->nb_samples, AVRational{1, audio_enc_ctx->frame_size}, audio_enc_ctx->time_base); encode_frame = audio_frame; } else { // 文件结束了,则发送一个空指针的frame,用来清空缓冲区 encode_frame = nullptr; } // 发送一个frame if (avcodec_send_frame(audio_enc_ctx, encode_frame) < 0) { FATAL("send frame exception."); } // 接受编码完的内容 while (true) { auto packet_ret = avcodec_receive_packet(audio_enc_ctx, &pkt); // 判断是否完全接受了packet if (packet_ret == AVERROR(EAGAIN) || packet_ret == AVERROR_EOF) { break; } // 检查是否接受异常 if (packet_ret < 0) { FATAL("receive packet exception."); } av_packet_rescale_ts(&pkt, audio_enc_ctx->time_base, audio_stream->time_base); pkt.stream_index = audio_stream->index; av_interleaved_write_frame(fmt_ctx, &pkt); av_packet_unref(&pkt); } // 编码帧为空,则表示已经处理完所有的编码,退出该循环 if (encode_frame == nullptr) break; } av_write_trailer(fmt_ctx); return 0; } ```
为啥html5里面的audio的currentTime无法设置
简直要哭了,html5里面的audio的currentTime无法设置,怎么设置都会返回0;无法赋值
AudioRecord无法无法获取音频源Could not get audio input for record source
如题,在使用AudioRecord录制音频时报错 08-01 10:35:17.734 9009-9009/com.example.myvoice E/AudioRecord: Could not get audio input for record source 8, sample rate 44100, format 0x1, channel mask 0xc, session 598, flags 0 08-01 10:35:17.734 9009-9009/com.example.myvoice E/AudioRecord-JNI: Error creating AudioRecord instance: initialization check failed with status -22. 08-01 10:35:17.735 9009-9009/com.example.myvoice E/android.media.AudioRecord: Error code -20 when initializing native AudioRecord object. 网上找了很久都没找到解决办法,完整代码参考了https://blog.csdn.net/jinzhuojun/article/details/33748031 权限设置如下 <manifest xmlns:android="http://schemas.android.com/apk/res/android" package="com.example.myvoice" android:versionCode="1" android:versionName="1.0"> <uses-permission android:name="android.permission.CAPTURE_AUDIO_OUTPUT" /> <uses-permission android:name="android.permission.CAPTURE_VIDEO_OUTPUT"/> <uses-permission android:name="android.permission.RECORD_AUDIO" /> <uses-sdk android:minSdkVersion="19" android:targetSdkVersion="19" /> <uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE"/> <application android:allowBackup="true" android:icon="@mipmap/ic_launcher" android:label="@string/app_name" android:roundIcon="@mipmap/ic_launcher_round" android:supportsRtl="true" android:theme="@style/AppTheme"> <activity android:name=".MainActivity"> <intent-filter> <action android:name="android.intent.action.MAIN" /> <category android:name="android.intent.category.LAUNCHER" /> </intent-filter> </activity> </application> </manifest> ``` 前两个权限设置会报错Permissions with the protection level signature, privileged or signatureOrSystem are only granted to system apps. If an app is a regular non-system app, it will never be able to use these permissions. 希望各位大神可以帮小白解决问题
Image copy detection 检测问题
Problem Description The success of the Internet and cost-effective digital storage device has made it possible to replicate, transmit, and distribute digital content in an effortless way. Thus, the protection of intellectual Property right (IPR) has become a crucial legal issue. Detecting copies of digital media(images, audio and video) is a basic requirement for IPR protection (or copyright protection).The applications of copydetection include usage tracking and copyright violation enforcement. For those above purposes, the image copy detection system came out.It aggregated all the images which were viewed as a copy of original image.In this system,an image is partitioned into m×n equalsized blocks,which makes the system independent of input image sizes,and an m×n sub-image is calculated by taking the average value of each block(see Figure.1(b)), This array is converted to a rank matrix as shown in Fig.1(c).Suppose that the intensity values in Fig.1(b) are changed in the copied image so that its sub-image has values:{{30, 60, 40}, {70, 90, 110}, {50, 100, 80}}. Nevertheless,its rank matrix is identical to that shown in Fig. 1(c) and thus perfect matching with original image can be achieved. Fig.1 (a)An image is divided into m×n blocks (3×3 in this example),(b)average values of blocks, and(c)rank matrix of (b). Let T and Q represent test image and original image,N represent the matrix size;there exists N tuples (t1,q1),…,( tn,qn),…,( tN,qN)(the order of the rank matrix:from left to right and from top to bottom).Now we define D(T,Q) = measures the distance between the two images(it’s obvious that if D(T,Q) gets smaller while the probability of the test image is considered as a copy of original image by the system becomes larger). Since there are M original images in the image copy detection system(Q1…QM). And the distance between T and some original images is given by D(T,Q1…QM)= To make it simple,we want to find an image which owns least D(T,Q1…QM). Input The first line of input should give the number of cases, T (at most 100). T test cases follow. The first line of each test case contains two integer n (1 ≤ n ≤ 100) and m(1 ≤ m ≤ 100) indicating the size of rank matrix and number of original images. The following m lines each contains a sequence of n different integers denotes the rank matrix. Output For each test case, output one line containing "Case #x: y", where x is the case number (starting from 1) and y is the least distance D(T,Q1…QM). Sample Input 2 3 2 1 2 3 1 3 2 9 3 1 4 2 5 7 9 3 8 6 2 1 4 5 9 3 7 6 8 9 8 7 6 5 4 3 2 1 Sample Output Case #1: 2 Case #2: 58
关于SDL音频播放没声音的问题~
开始光播放视频正常,但加上音频线程后,不但没有声音,而且连视频也卡在了一帧上,求教,谢谢~ # videoplay.cpp #include "videoplay.h" videoplay::videoplay(){ pFormatContext = avformat_alloc_context(); pFrame = avcodec_alloc_frame(); pFrameRGB = avcodec_alloc_frame(); pktQueue = new packetQueue(); pktQueueAudio = new packetQueue(); } void videoplay::reset(){ av_free(pFormatContext); pFormatContext = avformat_alloc_context(); av_free(pFrame); pFrame = avcodec_alloc_frame(); av_free(pFrameRGB); pFrameRGB = avcodec_alloc_frame(); delete pktQueue; packetQueue_init(); } //打开视频文件,获取解码器 int videoplay::open_file(){ av_register_all(); if( avformat_open_input(&pFormatContext, path.c_str(), NULL, NULL )!=0 ) return -1; if( av_find_stream_info(pFormatContext)<0 ) return -1; av_dump_format(pFormatContext, 0, path.c_str(), 0); videoStream = -1; audioStream = -1; for( unsigned int i=0;i<pFormatContext->nb_streams;i++ ){ if( pFormatContext->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO ){ videoStream = i; } else if( pFormatContext->streams[i]->codec->codec_type==AVMEDIA_TYPE_AUDIO ){ audioStream = i; } } if( videoStream==-1 ) return -1; if( audioStream==-1 ) return -1; // video pCodecContext = pFormatContext->streams[videoStream]->codec; pCodec = avcodec_find_decoder(pCodecContext->codec_id); // audio aCodecContext = pFormatContext->streams[audioStream]->codec; aCodec = avcodec_find_decoder(aCodecContext->codec_id); if( pCodec==NULL || aCodec==NULL ) return -1; // video if( avcodec_open2( pCodecContext, pCodec, NULL )<0 ) return -1; ud *userdata = (ud*) malloc(sizeof(ud)); userdata->aCodecContext = aCodecContext; userdata->vp = this; // audio wanted_spec = (SDL_AudioSpec*) av_mallocz(sizeof(SDL_AudioSpec)); wanted_spec->freq = aCodecContext->sample_rate; wanted_spec->format = AUDIO_S16SYS; wanted_spec->channels = aCodecContext->channels; wanted_spec->silence = 0; wanted_spec->samples = SDL_AUDIO_BUFFER_SIZE; wanted_spec->callback = audio_callback; wanted_spec->userdata = userdata; if( SDL_OpenAudio(wanted_spec, NULL)<0 ) return -1; av_free(pCodec); av_free(aCodec); } //获取包,加入队列 int videoplay::getPackets(){ int numBytes; packetQueue_init(); pFrame = avcodec_alloc_frame(); pFrameRGB = avcodec_alloc_frame(); if( pFrame==NULL || pFrameRGB==NULL ) return -1; numBytes = avpicture_get_size( PIX_FMT_RGB24, pCodecContext->width, pCodecContext->height ); buffer = (uint8_t*)av_malloc(numBytes*sizeof(uint8_t)); avpicture_fill( (AVPicture*)pFrameRGB, buffer, PIX_FMT_RGB24, pCodecContext->width, pCodecContext->height ); AVPacket packet; while( av_read_frame(pFormatContext, &packet)>=0 ){ if( packet.stream_index==videoStream ) packetQueue_put( pktQueue, &packet ); if( packet.stream_index==audioStream ) packetQueue_put( pktQueueAudio, &packet ); } av_free(pCodecContext); } void videoplay::packetQueue_init(){ pktQueue = (packetQueue*)malloc(sizeof(packetQueue)); memset( pktQueue, 0, sizeof(packetQueue) ); pktQueue->mutex = SDL_CreateMutex(); pktQueue->cond = SDL_CreateCond(); pktQueueAudio = (packetQueue*)malloc(sizeof(packetQueue)); memset( pktQueueAudio, 0, sizeof(packetQueue) ); pktQueueAudio->mutex = SDL_CreateMutex(); pktQueueAudio->cond = SDL_CreateCond(); } bool videoplay::packetQueue_get(packetQueue *pktQueue, AVPacket *packet){ int ret = 0; //quit=0; AVPacketList *pkt1; SDL_LockMutex(pktQueue->mutex); if(pktQueue->nb_packets<=VIDEO_BUFFER_MIN_SIZE){ SDL_CondSignal(pktQueue->cond); } while(1) { pkt1=pktQueue->first; if(pkt1) { pktQueue->first=pkt1->next; if(!pktQueue->first)pktQueue->last=NULL; pktQueue->nb_packets--; *packet = pkt1->pkt; av_free(pkt1); ret=1; break; } else { SDL_CondWait(pktQueue->cond,pktQueue->mutex); } } SDL_UnlockMutex(pktQueue->mutex); return ret; } //往队列加包 void videoplay::packetQueue_put(packetQueue *pktQueue, AVPacket *packet){ AVPacketList *pkt1=(AVPacketList*)av_malloc(sizeof(AVPacketList)); pkt1->pkt=*packet; pkt1->next=NULL; SDL_LockMutex( pktQueue->mutex); if( pktQueue->nb_packets>=VIDEO_BUFFER_MAX_SIZE ){ SDL_CondWait( pktQueue->cond, pktQueue->mutex ); } if(!pktQueue->last) pktQueue->first=pkt1; else pktQueue->last->next=pkt1; pktQueue->last=pkt1; pktQueue->nb_packets++; if( pktQueue->nb_packets>=VIDEO_BUFFER_MIN_SIZE ){ SDL_CondSignal(pktQueue->cond); } SDL_CondSignal(pktQueue->cond); SDL_UnlockMutex(pktQueue->mutex); return ; } QImage* videoplay::play(QImage &image){ AVPacket *packet = new AVPacket(); struct SwsContext *pSwsCtx; int frameFinished; while( packetQueue_get( pktQueue, packet) ){ avcodec_decode_video2( pCodecContext, pFrame, &frameFinished, packet ); if( frameFinished ){ pSwsCtx = sws_getContext( pCodecContext->width, pCodecContext->height,pCodecContext->pix_fmt, pCodecContext->width, pCodecContext->height, PIX_FMT_RGB24, SWS_BICUBIC, NULL, NULL, NULL ); sws_scale (pSwsCtx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecContext->height, pFrameRGB->data, pFrameRGB->linesize); bmp->pixels[0] = pFrameRGB->data[0]; bmp->pixels[1] = pFrameRGB->data[2]; bmp->pixels[2] = pFrameRGB->data[1]; bmp->pitches[0] = pFrameRGB->linesize[0]; bmp->pitches[1] = pFrameRGB->linesize[2]; bmp->pitches[2] = pFrameRGB->linesize[1]; SDL_UnlockYUVOverlay(bmp); rect.x=0; rect.y=0; rect.w=pCodecContext->width; rect.h=pCodecContext->height; SDL_DisplayYUVOverlay(bmp,&rect); */ memcpy( buffer,pFrameRGB,sizeof(AVFrame) ); QImage tmpImage( (uchar*)buffer, pCodecContext->width, pCodecContext->height, QImage::Format_RGB888 ); image = tmpImage.copy(); SDL_Delay(40); int i = 0; return &image; } } return NULL; } int videoplay::audio_decode_frame( videoplay *vp, AVCodecContext *aCodecContext, Uint8 *audio_buf, int buf_size ){ static AVPacket pkt; static Uint8 *audio_pkt_data = NULL; static int audio_pkt_size = 0; int len_1, data_size; while(1){ while(audio_pkt_size>0){ data_size = buf_size; len_1 = avcodec_decode_audio3( aCodecContext, (int16_t*)audio_buf, &data_size, &pkt); if( len_1<0 ){ audio_pkt_size = 0; break; } audio_pkt_data = audio_pkt_data + len_1; audio_pkt_size = audio_pkt_size - len_1; if( data_size<=0 ) continue; return data_size; } if(pkt.data) av_free_packet(&pkt); if( vp->packetQueue_get(vp->pktQueueAudio, &pkt)==0 ) return -1; audio_pkt_data = pkt.data; audio_pkt_size = pkt.size; } } void videoplay::audio_callback( void*userdata, Uint8 *stream, int len ){ ud *udata = (ud*)userdata; AVCodecContext *aCodecContext = udata->aCodecContext; videoplay *vp = udata->vp; int len_1, audio_size; static Uint8 audio_buf[AVCODEC_MAX_AUDIO_FRAME_SIZE*3/2]; static unsigned int audio_buf_size = 0; static unsigned int audio_buf_index = 0; while( len>0 ){ if( audio_buf_index>=audio_buf_size ){ audio_size = audio_decode_frame( vp, aCodecContext, audio_buf, sizeof(audio_buf) ); if( audio_size<0 ){ audio_buf_size = 1024; memset( audio_buf, 0 , audio_buf_size ); } else audio_buf_size = audio_size; audio_buf_index = 0; } } len_1 = audio_buf_size - audio_buf_index; if( len_1>len ) len_1 = len; // memcpy( stream, (Uint8*)audio_buf+audio_buf_index, len_1 ); SDL_MixAudio(stream,(Uint8*)audio_buf+audio_buf_index, len_1, SDL_MIX_MAXVOLUME ); len = len - len_1; stream = stream + len_1; audio_buf_index = audio_buf_index + len_1; } # mainwindow.cpp #include "mainwindow.h" #include "ui_mainwindow.h" #include <Windows.h> #include "videoplay.h" MainWindow::MainWindow(QWidget *parent) : QMainWindow(parent), ui(new Ui::MainWindow) { ui->setupUi(this); connect( this, SIGNAL(readOneFrame(QPixmap)), this, SLOT(setPic(QPixmap)) ); } MainWindow::~MainWindow() { delete ui; } int threadFunc( void *arg){ videoplay *vp = (videoplay*)arg; vp->getPackets(); return 1; } int MainWindow::threadFunc_1( void *arg){ MainWindow *mainWindow = (MainWindow*)arg; QImage *image = new QImage(); while( mainWindow->vp.play(*image) ){ QPixmap pixmap = QPixmap::fromImage(image->scaled(mainWindow->ui->label->size(), Qt::KeepAspectRatio)); emit mainWindow->readOneFrame(pixmap); Sleep(1); mainWindow->state = 1; } delete image; return 1; } int threadFunc_2( void *arg){ while(1) SDL_PauseAudio(5); return 1; } void MainWindow::closeEvent(QCloseEvent *event){ SDL_KillThread(decodeTid); SDL_KillThread(videoTid); SDL_KillThread(audioTid); } void MainWindow::on_pushButton_clicked() //打开,获取到视频文件路径 path { vp.reset(); QFileDialog* fileDialog = new QFileDialog(this); QString path = fileDialog->getOpenFileName(this, "打开", ".", "Video Files(*.mp4 *.avi,*rmvb);;all(*)", 0, 0); decodeTid=NULL; videoTid=NULL; if( path.length()!=0 ){ if( SDL_Init(SDL_INIT_VIDEO | SDL_INIT_AUDIO) ) return ; ui->label->setText( path ); vp.setPath(path.toStdString()); vp.open_file(); decodeTid = SDL_CreateThread(threadFunc,&vp); videoTid = SDL_CreateThread(threadFunc_1,this); SDL_PauseAudio(0); audioTid = SDL_CreateThread(threadFunc_2,NULL); } } void MainWindow::on_pushButton_2_clicked() //快退 { } void MainWindow::on_pushButton_3_clicked() //播放/停止 { if( state==1 ){ //点击后暂停 ui->pushButton_3->setText(tr("暂停")); state = 0; } else{ ui->pushButton_3->setText(tr("播放")); //点击后播放 state = 1; } } void MainWindow::on_pushButton_4_clicked() //快进 { } void MainWindow::setPic(QPixmap pixmap){ ui->label->setPixmap(pixmap); ui->label->repaint(); }
相见恨晚的超实用网站
搞学习 知乎:www.zhihu.com 简答题:http://www.jiandati.com/ 网易公开课:https://open.163.com/ted/ 网易云课堂:https://study.163.com/ 中国大学MOOC:www.icourse163.org 网易云课堂:study.163.com 哔哩哔哩弹幕网:www.bilibili.com 我要自学网:www.51zxw
花了20分钟,给女朋友们写了一个web版群聊程序
参考博客 [1]https://www.byteslounge.com/tutorials/java-ee-html5-websocket-example
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载    点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量 path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。
字节跳动视频编解码面经
引言 本文主要是记录一下面试字节跳动的经历。 三四月份投了字节跳动的实习(图形图像岗位),然后hr打电话过来问了一下会不会opengl,c++,shador,当时只会一点c++,其他两个都不会,也就直接被拒了。 七月初内推了字节跳动的提前批,因为内推没有具体的岗位,hr又打电话问要不要考虑一下图形图像岗,我说实习投过这个岗位不合适,不会opengl和shador,然后hr就说秋招更看重基础。我当时
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入 假设现有4个人...
Python 基础(一):入门必备知识
目录1 标识符2 关键字3 引号4 编码5 输入输出6 缩进7 多行8 注释9 数据类型10 运算符10.1 常用运算符10.2 运算符优先级 1 标识符 标识符是编程时使用的名字,用于给变量、函数、语句块等命名,Python 中标识符由字母、数字、下划线组成,不能以数字开头,区分大小写。 以下划线开头的标识符有特殊含义,单下划线开头的标识符,如:_xxx ,表示不能直接访问的类属性,需通过类提供
这30个CSS选择器,你必须熟记(上)
关注前端达人,与你共同进步CSS的魅力就是让我们前端工程师像设计师一样进行网页的设计,我们能轻而易举的改变颜色、布局、制作出漂亮的影音效果等等,我们只需要改几行代码,不需...
国产开源API网关项目进入Apache孵化器:APISIX
点击蓝色“程序猿DD”关注我回复“资源”获取独家整理的学习资料!近日,又有一个开源项目加入了这个Java开源界大名鼎鼎的Apache基金会,开始进行孵化器。项目名称:AP...
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 欢迎 改进 留言。 演示地点跳到演示地点 html代码如下`&lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;title&gt;music&lt;/title&gt; &lt;meta charset="utf-8"&gt
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。 1. for - else 什么?不是 if 和 else 才
数据库优化 - SQL优化
前面一篇文章从实例的角度进行数据库优化,通过配置一些参数让数据库性能达到最优。但是一些“不好”的SQL也会导致数据库查询变慢,影响业务流程。本文从SQL角度进行数据库优化,提升SQL运行效率。 判断问题SQL 判断SQL是否有问题时可以通过两个表象进行判断: 系统级别表象 CPU消耗严重 IO等待严重 页面响应时间过长
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 c/c++ 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7
通俗易懂地给女朋友讲:线程池的内部原理
餐厅的约会 餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”我楞了一下,心里想女朋友今天是怎么了,怎么突然问出这么专业的问题,但做为一个专业人士在女朋友面前也不能露怯啊,想了一下便说:“我先给你讲讲我前同事老王的故事吧!” 大龄程序员老王 老王是一个已经北漂十多年的程序员,岁数大了,加班加不动了,升迁也无望,于是拿着手里
经典算法(5)杨辉三角
杨辉三角 是经典算法,这篇博客对它的算法思想进行了讲解,并有完整的代码实现。
编写Spring MVC控制器的14个技巧
本期目录 1.使用@Controller构造型 2.实现控制器接口 3.扩展AbstractController类 4.为处理程序方法指定URL映射 5.为处理程序方法指定HTTP请求方法 6.将请求参数映射到处理程序方法 7.返回模型和视图 8.将对象放入模型 9.处理程序方法中的重定向 10.处理表格提交和表格验证 11.处理文件上传 12.在控制器中自动装配业务类 ...
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹
面试官:你连RESTful都不知道我怎么敢要你?
面试官:了解RESTful吗? 我:听说过。 面试官:那什么是RESTful? 我:就是用起来很规范,挺好的 面试官:是RESTful挺好的,还是自我感觉挺好的 我:都挺好的。 面试官:… 把门关上。 我:… 要干嘛?先关上再说。 面试官:我说出去把门关上。 我:what ?,夺门而去 文章目录01 前言02 RESTful的来源03 RESTful6大原则1. C-S架构2. 无状态3.统一的接
求小姐姐抠图竟遭白眼?痛定思痛,我决定用 Python 自力更生!
点击蓝色“Python空间”关注我丫加个“星标”,每天一起快乐的学习大家好,我是 Rocky0429,一个刚恰完午饭,正在用刷网页浪费生命的蒟蒻...一堆堆无聊八卦信息的网页内容慢慢使我的双眼模糊,一个哈欠打出了三斤老泪,就在此时我看到了一张图片:是谁!是谁把我女朋友的照片放出来的!awsl!太好看了叭...等等,那个背景上的一堆鬼画符是什么鬼?!真是看不下去!叔叔婶婶能忍,隔壁老王的三姨妈的四表...
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看
SQL-小白最佳入门sql查询一
不要偷偷的查询我的个人资料,即使你再喜欢我,也不要这样,真的不好;
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
致 Python 初学者
欢迎来到“Python进阶”专栏!来到这里的每一位同学,应该大致上学习了很多 Python 的基础知识,正在努力成长的过程中。在此期间,一定遇到了很多的困惑,对未来的学习方向感到迷茫。我非常理解你们所面临的处境。我从2007年开始接触 python 这门编程语言,从2009年开始单一使用 python 应对所有的开发工作,直至今天。回顾自己的学习过程,也曾经遇到过无数的困难,也曾经迷茫过、困惑过。开办这个专栏,正是为了帮助像我当年一样困惑的 Python 初学者走出困境、快速成长。希望我的经验能真正帮到你
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,...
程序员:我终于知道post和get的区别
是一个老生常谈的话题,然而随着不断的学习,对于以前的认识有很多误区,所以还是需要不断地总结的,学而时习之,不亦说乎
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU...
相关热词 c# 输入ip c# 乱码 报表 c#选择结构应用基本算法 c# 收到udp包后回包 c#oracle 头文件 c# 序列化对象 自定义 c# tcp 心跳 c# ice连接服务端 c# md5 解密 c# 文字导航控件
立即提问