ffmpeg 推流 海康NVR的回放流 推成 mpegts 20C

命令:ffmpeg -i rtsp://admin:qzxl025.@192.168.1.109:554/Streaming/tracks/201?starttime=20190821t09381
2z"&"endtime=20190821t164816z -f mpegts -codec:v mpeg1video -s 1280*720 http://192.168.1.40:8081/123/1

图片说明

如果直接摄像头的RTSP流就完全没问题
图片说明

这是什么原因啊,回放流和预览流有区别吗????求大佬解答一下

g29471
g29471 回复千里随行: 是因为这个没用音频,单独推音频就好了
3 个月之前 回复
qq_24488333
千里随行 兄弟怎么解决的 ,我遇到同意问题
8 个月之前 回复

2个回答

错误原因
Stream #0:0 表示解码视频 这边显示是ok的
Stream #0:1 表示解码音频 然后异常了,就说明我这个流是没有音频的
解决方案,在命令里 加
-map 0:0 表示只解码视频 (这个加上就ok了)
-map 0:1 表示只解码音频

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
ffmpeg 推流到 nginx时 , 一段时间后会中断

用 ffmpeg 将 摄像头的rtsp流转成rtmp后推到 nginx服务器 , 播放器能够正常播放一段时间(一小时左右) , 之后就会出错 ,播放器显示 error loading stream id not found on server . 我查了一下 ffmpeg的输出 . 正常时的输出为: ![图片说明](https://img-ask.csdn.net/upload/201902/14/1550135472_463288.png) 正常播放时 : frame , size 的值都是增加了 播放器无法播放后的输出为 ![图片说明](https://img-ask.csdn.net/upload/201902/14/1550135502_713807.jpeg) 无法播放时 : frame ,size 的值都不再增加 , drop值一直增加 , speed 和 biterate与我设置的也不一样 . 推流语句为 : ffmpeg -i rtsp://192.168.1.224/main_stream -tune zerolatency -vcodec libx264 -preset ultrafast -b:v 400k -s 720x576 -r 25 -f flv rtmp://192.168.1.226:1935/mylive/test2 没有接触过视频处理这些东西 , 有没有兄弟指点一下 ? ?

关于ffmpeg在推流中动态修改 输入流参数的问题

最近遇到一个问题,代码片段如下 ![图片说明](https://img-ask.csdn.net/upload/201903/23/1553310180_189286.png) 这样打开输入流 抓取桌面的某一区域进行推流。 这个桌面区域是这样子的(红色框框的内容要推出去) ![图片说明](https://img-ask.csdn.net/upload/201903/23/1553310287_610474.png) 但是有个问题,打开输入流在推流的过程中,要支持移动窗口或者是缩放这个窗口,此时推流的内容要相应发生改变。这几天刚学习ffmpeg,知道是要修改代码中的offset_x等参数,但是尝试了几个方式都不行。还请各位大神指导下,谢谢了

ffmpeg推流音频文件,ffplay拉流无法播放

1, 在做音频推流的时候,使用 ffmpeg -re -i waving_flag.mp3 -c copy -f mpegts udp://224.0.1.1:8090 推流. ffplay -f mpegts udp://224.0.1.1:8090 -fflags nobuffer 拉流播放没有问题. 2, 但是在使用 ffmpeg -re -i waving_flag.wav -c copy -f mpegts udp://224.0.1.1:8090 推流时 ffplay -f mpegts udp://224.0.1.1:8090 -fflags nobuffer 拉流就播放不了. 提示Failed to open file 'udp://224.0.1.1:8090' or configure filtergraph 把推流指令中的 -c copy 给去掉是可以正常拉流播放了. 3, 在使用我自己仿照雷博主使用ffmpeg SDK写的一个推流代码, 在输入为MP3格式文件时,能正常推出来, 使用 ffplay -f mpegts udp://224.0.1.1:8090 -fflags nobuffer 拉流是没有问题的 但是在选择输入音频格式的文件为aac时, 推流是正常的,可拉流这边就提示: Header missing Could not find codec parameters for stream 0 (Audio: mp3 ([3][0][0][0] / 0x0003), 0 channels, s16p): unspecified frame size Consider increasing the value for the 'analyzeduration' and 'probesize' options Input #0, mpegts, from 'udp://224.0.1.1:8090': Duration: N/A, start: 0.000000, bitrate: N/A Program 1 Metadata: service_name : Service01 service_provider: FFmpeg Stream #0:0[0x100]: Audio: mp3 ([3][0][0][0] / 0x0003), 0 channels, s16p Failed to open file 'udp://224.0.1.1:8090' or configure filtergraph 这里显示 Audio: mp3 可我明明输入的是aac 格式的文件. 为什么使用指令的时候,可以正常拉流播放, 在不加-c copy时, ffmpeg库内部做了哪些处理, 我仿照雷博主的这个推流代码应该怎么去改进,才能让他兼容更多的音频格式? 我想法就是: 是不是将输入的文件进行解码后重定向再统一编码为MP3格式推流出去吗?

通过pipe使用ffmpeg推流视频流处理出错

![图片说明](https://img-ask.csdn.net/upload/201903/30/1553946177_807326.jpg) ``` command = ['ffmpeg', '-use_wallclock_as_timestamps', '1', '-y', '-f', 'rawvideo', '-vcodec', 'rawvideo', '-pix_fmt', 'bgr24', '-s', '640*480', '-r', '9', '-i', '-', '-c:v', 'libx264', '-pix_fmt', 'yuv420p', '-preset', 'ultrafast', '-f', 'hls', '-hls_list_size', '9', '-hls_time','2', '/ts/pla.m3u8'] proc = sp.Popen(command, stdin=sp.PIPE) ··· ··· vid = cv2.VideoCapture(0) ··· return_value, frame = vid.read() ··· pipe_frame = frame[:, :, ::-1] proc.stdin.write(pipe_frame.tostring()) ```

如何利用ffmpeg库实现对实时rtsp流每一秒截一张图

我想实现这个功能,利用ffmpeg库,对实时rtsp流每一秒截一张图.我自己写了段代码 ``` while(av_read_frame(pAVFormatContext,&pAVPacket) >= 0){ if(pAVPacket.stream_index == videoStreamIndex){ avcodec_decode_video2(pAVCodecContext,pAVFrame,&m_i_frameFinished,&pAVPacket); if(m_i_frameFinished){ sws_scale(pSwsContext,(const uint8_t* const *)pAVFrame->data,pAVFrame->linesize,0,videoHeight,pAVPicture.data,pAVPicture.linesize); saveJpeg(&pAVPicture,videoWidth,videoHeight,++index); } sleep(1); } av_free_packet(&pAVPacket); } ``` 但是我发现这样写,每25张图,都是同一秒的内容. 有没有哪位大神知道应该怎么做?

nginx-rtmp流媒体服务器将一个MP4文件通过ffmpeg推流,直播可以播放,但是点播就无法播放,原因是什么,求大神指导

nginx-rtmp流媒体服务器将一个MP4文件通过ffmpeg推流,直播可以播放,但是点播就无法播放,点播除了在MP4官网下载的MP4文件可以播放,其他任何MP4文件都无法点播,但是用vlc是可以正常播放的 注:flv格式文件可以点播 原因是什么,求大神指导 配置,点播状况如下图 注:第二张图 ffplay "rtmp://xxxx:1935/vod/test.mp4"是下面一个文件201709151.mp4推流上来的,201709151可以点播,但是test1.mp4不能播放 ![图片说明](https://img-ask.csdn.net/upload/202005/15/1589537294_357888.jpg)

ffmpeg/dshow直播推流不成功

ffmpeg -rtbufsize 1584k -f dshow -i video="USB 视频设备" -vcodec libx264 -preset:v ultrafast -tune:v zerolatency -f flv rtmp://192.168.11.122/publish/flv/channel 用了这个命令,然后老是失败,报这样的错,谁能给解决下,谢谢! ![图片说明](https://img-ask.csdn.net/upload/201510/22/1445478398_556038.jpg)

ffmpeg 怎么实时的推流音频buf到rtmp服务器

麦克风喊话,实时的传来MP3音频buf,需要实时的将这个音频buf传到rtmp服务器

ffmpeg用rtmp做音视频推流同步问题

最近在研究ffmpeg,想做个视频聊天demo. 研究了雷博的博客,视频单独推流没问题,音频单独推流也没得问题。但是同步的时候问题来了。也不知道自己错在哪里 新手,没有C币 只能厚颜向大家提问了。 ``` while (1) { //Wait SDL_WaitEvent(&event); if (event.type == SFM_REFRESH_EVENT) { av_init_packet(dec_packet); //Get an AVPacket if (av_compare_ts(cur_pts_v, ifmt_ctx_video->streams[in_videoindex]->time_base, cur_pts_a, ifmt_ctx_audio->streams[in_audioindex]->time_base) < 0) { got_frame = -1; got_packet = -1; if (av_read_frame(ifmt_ctx_video, dec_packet) >= 0) { if (dec_packet->stream_index == in_videoindex) { pFrame_vedio = av_frame_alloc(); if (!pFrame_vedio) { printf("alloc pFrame Failed.\n"); return -1; } //ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet); ret = avcodec_send_packet(inCodecCtx_v, dec_packet); got_frame = avcodec_receive_frame(inCodecCtx_v, pFrame_vedio); if (ret < 0) { av_frame_free(&pFrame_vedio); printf("Decode Error.\n"); return -1; } if (got_frame == 0) { //转码成YUV格式 sws_scale(img_convert_ctx, (const unsigned char* const*)pFrame_vedio->data, pFrame_vedio->linesize, 0, inCodecCtx_v->height, pFrameYUV->data, pFrameYUV->linesize); sws_scale(img_convert_ctx_SDL, (const unsigned char* const*)pFrame_vedio->data, pFrame_vedio->linesize, 0, inCodecCtx_v->height, pFrameYUV_SDL->data, pFrameYUV_SDL->linesize); //初始化封装包 enc_packet.data = NULL; enc_packet.size = 0; av_init_packet(&enc_packet); //编码 //ret = avcodec_encode_video2(oCodecCtx, &enc_packet, pFrameYUV, &got_encpicture); ret = avcodec_send_frame(outCodecCtx_v, pFrameYUV); //FIX : non-strictly-monotonic PTS AVRational time_base_in = { 1, AV_TIME_BASE }; //{ 1, 1000000 }; AVRational time_base_conert = outCodecCtx_v->time_base;//{ 1, 1000 }; pFrameYUV->pts = av_rescale_q(dec_packet->pts, time_base_in, time_base_conert); if (ret < 0) { av_frame_free(&pFrame_vedio); printf("Encode Error.\n"); return -1; } got_packet = avcodec_receive_packet(outCodecCtx_v, &enc_packet); if (got_packet == 0) { enc_packet.stream_index = out_video_st->index; //FIX:No PTS (Example: Raw H.264) //Simple Write PTS if (enc_packet.pts == AV_NOPTS_VALUE) { //Write PTS AVRational time_base1 = ofmt_ctx->streams[out_videoindex]->time_base; //Duration between 2 frames (us) int64_t calc_duration = (double)AV_TIME_BASE / av_q2d(ofmt_ctx->streams[out_videoindex]->r_frame_rate); //Parameters enc_packet.pts = (double)(frame_index*calc_duration) / (double)(av_q2d(time_base1)*AV_TIME_BASE); enc_packet.dts = enc_packet.pts; enc_packet.duration = (double)calc_duration / (double)(av_q2d(time_base1)*AV_TIME_BASE); } if (dec_packet->stream_index == in_videoindex) { //Delay AVRational time_base = { 1, AV_TIME_BASE };//{ 1, 1000 }; AVRational time_base_q = ofmt_ctx->streams[out_videoindex]->time_base; int64_t pts_time = av_rescale_q(dec_packet->dts, time_base, time_base_q); int64_t now_time = av_rescale_q(av_gettime(), time_base, time_base_q); if (pts_time > now_time) av_usleep(pts_time - now_time); } //Write PTS AVRational time_base = ofmt_ctx->streams[out_videoindex]->time_base;//{ 1, 1000 }; AVRational r_framerate1 = ifmt_ctx_video->streams[in_videoindex]->r_frame_rate;// { 50, 2 }; AVRational time_base_q = { 1, AV_TIME_BASE }; //Duration between 2 frames (us) int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1)); enc_packet.pts = av_rescale_q(frame_index*calc_duration, time_base_q, time_base); enc_packet.dts = enc_packet.pts; enc_packet.duration = av_rescale_q(calc_duration, time_base_q, time_base); //(double)(calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base)); enc_packet.pos = -1; //Print to Screen if (enc_packet.stream_index == in_videoindex) { frame_index++; printf("%8d Send video frames to output URL\n", frame_index); } cur_pts_v = enc_packet.pts; //写到输出上下文 ret = av_interleaved_write_frame(ofmt_ctx, &enc_packet); } av_packet_unref(&enc_packet); } av_frame_free(&pFrame_vedio); } av_packet_unref(dec_packet); #if USE_SDL //int y_size = iCodecCtx->width * iCodecCtx->height; ////SDL--------------------------- //// 设置纹理数据 //pFrameYUV_SDL->data[0] = out_buffer; // Y //pFrameYUV_SDL->data[1] = out_buffer + y_size; // U //pFrameYUV_SDL->data[2] = out_buffer + y_size * 3 / 2; // V #if 0 SDL_UpdateTexture(sdlTexture, NULL, pFrameYUV->data[0], pFrameYUV->linesize[0]); #else SDL_UpdateYUVTexture(sdlTexture, &rect, pFrameYUV_SDL->data[0], pFrameYUV_SDL->linesize[0], pFrameYUV_SDL->data[1], pFrameYUV_SDL->linesize[1], pFrameYUV_SDL->data[2], pFrameYUV_SDL->linesize[2]); #endif // 清理渲染器 SDL_RenderClear(sdlRenderer); // 将纹理数据copy到渲染器 //将sdlRect区域的图像显示到dstsdlRect区域 //SDL_RenderCopy( sdlRenderer, sdlTexture, &sdlRect, &sdlRect ); SDL_RenderCopy(sdlRenderer, sdlTexture, NULL, &rect); // 显示 SDL_RenderPresent(sdlRenderer); //SDL End----------------------- #endif } } else { const int output_frame_size = outCodecCtx_a->frame_size; //int finished = 0; av_init_packet(dec_packet); dec_packet->data = NULL; dec_packet->size = 0; got_frame = -1; got_packet = -1; if (av_read_frame(ifmt_ctx_audio, dec_packet) >= 0) { if (dec_packet->stream_index == in_audioindex) { pFrame_audio = av_frame_alloc(); if (!pFrame_audio) { printf("alloc pFrame Failed.\n"); return -1; } if (dec_packet->stream_index >= stream_mapping_size || stream_mapping[dec_packet->stream_index] < 0) { av_packet_unref(dec_packet); continue; } //ret = avcodec_decode_audio4(inCodecCtx_a, pFrame, &got_picture, packet); int ret = avcodec_send_packet(inCodecCtx_a, dec_packet); got_frame = avcodec_receive_frame(inCodecCtx_a, pFrame_audio); if (ret < 0) { av_frame_free(&pFrame_audio); printf("Decode Error.\n"); return -1; } if (got_frame == 0) { //写入fifo while (true) { int fifo_size = av_audio_fifo_size(fifo); if (fifo_size >= output_frame_size) break; uint8_t **converted_input_samples; converted_input_samples = (uint8_t **)calloc(outCodecCtx_a->channels, sizeof(converted_input_samples)); ret = av_samples_alloc(converted_input_samples, NULL, outCodecCtx_a->channels, pFrame_audio->nb_samples, outCodecCtx_a->sample_fmt, 0); //swr_convert(au_convert_ctx, pFrameMP3->data, pFrameMP3->nb_samples, (const uint8_t**)m_ain, pFrame_audio->nb_samples); int conver_num = swr_convert(au_convert_ctx, converted_input_samples, pFrame_audio->nb_samples, (const uint8_t**)pFrame_audio->extended_data, pFrame_audio->nb_samples); ret = av_audio_fifo_realloc(fifo, av_audio_fifo_size(fifo) + pFrame_audio->nb_samples); ret = av_audio_fifo_write(fifo, (void **)converted_input_samples, conver_num); } av_init_packet(&enc_packet); enc_packet.data = NULL; enc_packet.size = 0; float sumlen = av_audio_fifo_size(fifo); int num = 0; //从fifo读出 while (true) { int fifo_size = av_audio_fifo_size(fifo); if (fifo_size < output_frame_size) break; const int frame_size = FFMIN(av_audio_fifo_size(fifo), outCodecCtx_a->frame_size); AVFrame *covert_frame; covert_frame = av_frame_alloc(); covert_frame->nb_samples = output_frame_size; covert_frame->channel_layout = outCodecCtx_a->channel_layout; covert_frame->format = outCodecCtx_a->sample_fmt; covert_frame->sample_rate = outCodecCtx_a->sample_rate; ret = av_frame_get_buffer(covert_frame, 0); ret = av_audio_fifo_read(fifo, (void **)covert_frame->data, frame_size); if (covert_frame) { covert_frame->pts = audio_pts; audio_pts += covert_frame->nb_samples; } ret = avcodec_send_frame(outCodecCtx_a, covert_frame); got_packet = avcodec_receive_packet(outCodecCtx_a, &enc_packet); if (got_packet == 0) { frame_index_a++; AVRational timebase = {1,AV_TIME_BASE }; int64_t cal_duration = AV_TIME_BASE *(float)covert_frame->nb_samples / (float)covert_frame->sample_rate; enc_packet.pts = av_rescale_q_rnd(audio_pts, outCodecCtx_a->time_base, ofmt_ctx->streams[out_audio_st->index]->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)); enc_packet.dts = enc_packet.pts; enc_packet.duration = av_rescale_q_rnd(cal_duration, timebase, ofmt_ctx->streams[out_audio_st->index]->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)); //int64_t cal_duration = AV_TIME_BASE *(float)covert_frame->nb_samples / (float)covert_frame->sample_rate; //enc_packet.pos = -1; //enc_packet.pts = frame_index_a*cal_duration; //enc_packet.dts = enc_packet.pts; //enc_packet.duration = cal_duration; AVRational time_base = ofmt_ctx->streams[out_audioindex]->time_base;//{ 1, 1000 }; AVRational time_base_q = { 1, AV_TIME_BASE }; //Delay int64_t pts_time = av_rescale_q(enc_packet.pts, time_base, time_base_q); int64_t now_time = av_gettime() - start_time; if (pts_time > now_time) av_usleep(pts_time - now_time); //Print to Screen if (enc_packet.stream_index == in_audioindex) { printf("Send %8d audio frames to output URL\n", frame_index_a); } cur_pts_a = enc_packet.pts; ret = av_interleaved_write_frame(ofmt_ctx, &enc_packet); } av_frame_free(&covert_frame); } av_packet_unref(&enc_packet); av_packet_unref(dec_packet); av_frame_free(&pFrame_audio); } } } av_packet_unref(dec_packet); } } else if (event.type == SDL_QUIT) { thread_exit = 1; } else if(event.type == SFM_BREAK_EVENT) { break; } } ```

ffmpeg中rtsp流转码ts流如何获取每一帧的流数据

大致情况是我这边打开一个伪装的http端口 有客户端请求过来后获取参数然后拉去rtsp流解码成ts流,然后把每一帧的数据buff直接返回给http端口的客户端 就像模拟http-ts 现在输出来的播放器无法播放,是不是需要在每一帧的ts流都要加上头或什么??

请问如何使用ffmpeg库实现多文件(视频、音频)无缝连续推流?

# 1.网上有介绍concat命令进行合并后,再推,不符合我的需求 # # 2.具体怎么实现尼?是写脚本命令,还是利用第三库? # # 3.如果对推送文件有要求,比如定时的播放文件,那又该如何实现?

FFmpeg推送rtmp视频流到nginx的问题

FFmpeg将网络摄像机的rtsp视频流转换成rtmp流,然后推送rtmp视频流到nginx上面,然后使用手机播放hls的视频流。 在期间遇到一些问题,总是丢包,我截了个图,请大家帮忙看看是不是我在使用ffmpeg时参数设置的不对啊。 我使用的命令: ffmpeg -i rtsp://admin:12345@172.27.35.56 -vcodec copy -acodec aac -ar 44100 -strict -2 -ac 1 -f flv -s 640x480 rtmp://172.27.35.2:1935/hls/test2 ![图片说明](https://img-ask.csdn.net/upload/201502/03/1422933381_314422.jpg)

Android 采集摄像头数据 , 通过ffmpeg推送流至服务器

Android 采集摄像头数据 , 通过ffmpeg推送流, 通过AdobeMediaServer查看 , 为什么播放视频总是隔一段时间一缓冲 , 而且播放有延迟。求大神帮忙啊 ``` AVFormatContext *ofmt_ctx; AVStream* video_st; //视音频流对应的结构体,用于视音频编解码。 AVCodecContext* pCodecCtx; AVCodec* pCodec; AVPacket enc_pkt; // 存储压缩数据(视频对应H.264等码流数据,音频对应AAC/MP3等码流数据) AVFrame *pFrameYUV; // 存储非压缩的数据(视频对应RGB/YUV像素数据,音频对应PCM采样数据) int framecnt = 0; int yuv_width; int yuv_height; int y_length; int uv_length; int64_t start_time; //const char* out_path = "rtmp://192.168.2.176/live/livestream"; //Output FFmpeg's av_log() void custom_log(void *ptr, int level, const char* fmt, va_list vl) { FILE *fp = fopen("/storage/emulated/0/av_log.txt", "a+"); if (fp) { vfprintf(fp, fmt, vl); fflush(fp); fclose(fp); } } JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_initial(JNIEnv *env, jobject obj, jint width, jint height) { const char* out_path = "rtmp://192.168.2.176/live/livestream"; yuv_width = width; yuv_height = height; y_length = width * height; uv_length = width * height / 4; //FFmpeg av_log() callback av_log_set_callback(custom_log); av_register_all(); avformat_network_init(); //output initialize avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_path); //output encoder initialize //函数的参数是一个解码器的ID,返回查找到的解码器(没有找到就返回NULL)。 pCodec = avcodec_find_encoder(AV_CODEC_ID_H264); if (!pCodec) { LOGE("Can not find encoder!\n"); return -1; } pCodecCtx = avcodec_alloc_context3(pCodec); pCodecCtx->pix_fmt = PIX_FMT_YUV420P; pCodecCtx->width = width; pCodecCtx->height = height; pCodecCtx->time_base.num = 1; pCodecCtx->time_base.den = 25; pCodecCtx->bit_rate = 400000; pCodecCtx->gop_size = 250; /* Some formats want stream headers to be separate. */ if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER) pCodecCtx->flags |= CODEC_FLAG_GLOBAL_HEADER; //H264 codec param //pCodecCtx->me_range = 16; //pCodecCtx->max_qdiff = 4; //pCodecCtx->qcompress = 0.6; pCodecCtx->qmin = 10; pCodecCtx->qmax = 51; //Optional Param pCodecCtx->max_b_frames = 1; // Set H264 preset and tune AVDictionary *param = 0; // av_dict_set(&param, "preset", "ultrafast", 0); // av_dict_set(&param, "tune", "zerolatency", 0); av_opt_set(pCodecCtx->priv_data, "preset", "superfast", 0); av_opt_set(pCodecCtx->priv_data, "tune", "zerolatency", 0); //打开编码器 if (avcodec_open2(pCodecCtx, pCodec, &param) < 0) { LOGE("Failed to open encoder!\n"); return -1; } //Add a new stream to output,should be called by the user before avformat_write_header() for muxing video_st = avformat_new_stream(ofmt_ctx, pCodec); if (video_st == NULL) { return -1; } video_st->time_base.num = 1; video_st->time_base.den = 25; video_st->codec = pCodecCtx; //Open output URL,set before avformat_write_header() for muxing if (avio_open(&ofmt_ctx->pb, out_path, AVIO_FLAG_READ_WRITE) < 0) { LOGE("Failed to open output file!\n"); return -1; } //Write File Header avformat_write_header(ofmt_ctx, NULL); start_time = av_gettime(); return 0; } JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_encode(JNIEnv *env, jobject obj, jbyteArray yuv) { int ret; int enc_got_frame = 0; int i = 0; // 为解码帧分配内存 pFrameYUV = avcodec_alloc_frame(); uint8_t *out_buffer = (uint8_t *) av_malloc( avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height)); avpicture_fill((AVPicture *) pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height); //安卓摄像头数据为NV21格式,此处将其转换为YUV420P格式 jbyte* in = (jbyte*) (*env)->GetByteArrayElements(env, yuv, 0); memcpy(pFrameYUV->data[0], in, y_length); for (i = 0; i < uv_length; i++) { *(pFrameYUV->data[2] + i) = *(in + y_length + i * 2); *(pFrameYUV->data[1] + i) = *(in + y_length + i * 2 + 1); } pFrameYUV->format = AV_PIX_FMT_YUV420P; pFrameYUV->width = yuv_width; pFrameYUV->height = yuv_height; enc_pkt.data = NULL; enc_pkt.size = 0; // 定义AVPacket对象后,请使用av_init_packet进行初始化 av_init_packet(&enc_pkt); /** 编码一帧视频数据 * int avcodec_encode_video2(AVCodecContext *avctx, AVPacket *avpkt, const AVFrame *frame, int *got_packet_ptr); 该函数每个参数的含义在注释里面已经写的很清楚了,在这里用中文简述一下: avctx:编码器的AVCodecContext。 avpkt:编码输出的AVPacket。 frame:编码输入的AVFrame。 got_packet_ptr:成功编码一个AVPacket的时候设置为1。 函数返回0代表编码成功。 */ ret = avcodec_encode_video2(pCodecCtx, &enc_pkt, pFrameYUV, &enc_got_frame); av_frame_free(&pFrameYUV); if (enc_got_frame == 1) { LOGI("Succeed to encode frame: %5d\tsize:%5d\n", framecnt, enc_pkt.size); framecnt++; //标识该AVPacket所属的视频/音频流。 enc_pkt.stream_index = video_st->index; //标识该视频/音频流 //Write PTS AVRational time_base = ofmt_ctx->streams[0]->time_base; //{ 1, 1000 }; AVRational r_framerate1 = { 60, 2 }; //{ 50, 2 }; AVRational time_base_q = { 1, AV_TIME_BASE }; //Duration between 2 frames (us) int64_t calc_duration = (double) (AV_TIME_BASE) * (1 / av_q2d(r_framerate1)); //内部时间戳 //Parameters //enc_pkt.pts = (double)(framecnt*calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base)); enc_pkt.pts = av_rescale_q(framecnt * calc_duration, time_base_q, time_base); enc_pkt.dts = enc_pkt.pts; enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base); //(double)(calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base)); enc_pkt.pos = -1; //Delay int64_t pts_time = av_rescale_q(enc_pkt.dts, time_base, time_base_q); int64_t now_time = av_gettime() - start_time; if (pts_time > now_time) av_usleep(pts_time - now_time); ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt); av_free_packet(&enc_pkt); } // output(ofmt_ctx); return 0; } JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_flush(JNIEnv *env, jobject obj) { int ret; int got_frame; AVPacket enc_pkt; if (!(ofmt_ctx->streams[0]->codec->codec->capabilities & CODEC_CAP_DELAY)) return 0; while (1) { enc_pkt.data = NULL; enc_pkt.size = 0; av_init_packet(&enc_pkt); ret = avcodec_encode_video2(ofmt_ctx->streams[0]->codec, &enc_pkt, NULL, &got_frame); if (ret < 0) break; if (!got_frame) { ret = 0; break; } LOGI("Flush Encoder: Succeed to encode 1 frame!\tsize:%5d\n", enc_pkt.size); //Write PTS AVRational time_base = ofmt_ctx->streams[0]->time_base; //{ 1, 1000 }; AVRational r_framerate1 = { 60, 2 }; AVRational time_base_q = { 1, AV_TIME_BASE }; //Duration between 2 frames (us) int64_t calc_duration = (double) (AV_TIME_BASE) * (1 / av_q2d(r_framerate1)); //内部时间戳 //Parameters enc_pkt.pts = av_rescale_q(framecnt * calc_duration, time_base_q, time_base); enc_pkt.dts = enc_pkt.pts; enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base); //转换PTS/DTS(Convert PTS/DTS) enc_pkt.pos = -1; framecnt++; ofmt_ctx->duration = enc_pkt.duration * framecnt; /* mux encoded frame */ ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt); if (ret < 0) break; } //Write file trailer av_write_trailer(ofmt_ctx); return 0; } JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_close(JNIEnv *env, jobject obj) { if (video_st) avcodec_close(video_st->codec); avio_close(ofmt_ctx->pb); avformat_free_context(ofmt_ctx); return 0; } ```

求问FFmpeg+ngnix如何做到同时推多个流?

最近在做对接摄像头在Chrome上播放的项目,用FFmpeg+nginx来将rtsp转码成rtmp,现在我用FFmpeg推一个流已经成功了,但是怎么才能推多个流呢,只能多开几个命令行来操作吗?

如何使用ffmpeg的函数转发rtsp的视频流到组播组,不是命令行方式,或者有其他方式也行?

如何使用ffmpeg库中的函数从流媒体服务器获取rtsp流,然后将该rtsp流转发到一个组播组?金币不多见谅

FFMPEG合并两个视频流

各位大虾,FFMPEG能否在一个视频流A中嵌入另一个视频流B,并将两个流同时推送到流服务器,以达到类似于附件图片效果: 补充:**我不会C++,只会JAVA,能否不用编码,只用命令就可以搞定啊** ![图片说明](https://img-ask.csdn.net/upload/201602/23/1456218989_832002.png)

如何通过ffmpeg加速rtsp流的截图捕获?

<div class="post-text" itemprop="text"> <p>I want to capture a fresh screenshot from an rtsp stream and pass the data on via php whenever an ajax endpoint is called. </p> <p>Currently I am simply running </p> <pre><code>$resp = exec( 'ffmpeg -rtsp_transport tcp -y -i '.$post['link'].' -vframes 1 '.$path.$imagename); </code></pre> <p>The problem is this takes a lot of time to generate a screenshot, about 4 second per capture if the stream is good. If the stream drops frames or causes an error, I won't get a response and the script will timeout.</p> <p>Is there a way to optimize this or allow for fault tolerance? And overall speedup things so I can get a screenshot every second? If there's a better solution over ffmpeg, I am willing to try it as well!</p> </div>

关于直播推流的事,有大佬们吗

采用ffmpeg+ngnix 单路稳定没毛病, 如果是多路的方案是怎样的呢 有大佬们做过么 我现在采用ffmpeg+多进程开启,CPU 100% 不知所措

FFmpeg对RTSP流能够切片吗?

如题,我想将一个RTSP流切片保存为文件,命令如下: ffmpeg -i rtsp://192.168.21.82:554/aa.mp4 -vcodec copy -acodec copy -c copy -map 0 -f segment -segment_time 20 -segment_format mp4 /lishan/test/out%03d.mp4 由于找不到现成的RTSP流,我在192.168.21.82上自己搭建了一个流媒体服务器,将mp4转换为RTSP流。 请问我这样操作可以吗?为什么老是有类似于non monotonically increasing dts to muxer in stream 0: 3072 >= 3072的报错???困扰快10天了,实在是没办法了。各位大神,帮帮忙,谢谢!!!

MySQL 8.0.19安装教程(windows 64位)

话不多说直接开干 目录 1-先去官网下载点击的MySQL的下载​ 2-配置初始化的my.ini文件的文件 3-初始化MySQL 4-安装MySQL服务 + 启动MySQL 服务 5-连接MySQL + 修改密码 先去官网下载点击的MySQL的下载 下载完成后解压 解压完是这个样子 配置初始化的my.ini文件的文件 ...

Python+OpenCV计算机视觉

Python+OpenCV计算机视觉系统全面的介绍。

Vue.js 2.0之全家桶系列视频课程

基于新的Vue.js 2.3版本, 目前新全的Vue.js教学视频,让你少走弯路,直达技术前沿! 1. 包含Vue.js全家桶(vue.js、vue-router、axios、vuex、vue-cli、webpack、ElementUI等) 2. 采用笔记+代码案例的形式讲解,通俗易懂

navicat(内含激活码)

navicat支持mysql的可视化操作,内涵激活码,不用再忍受弹框的痛苦。

HTML期末大作业

这是我自己做的HTML期末大作业,花了很多时间,稍加修改就可以作为自己的作业了,而且也可以作为学习参考

150讲轻松搞定Python网络爬虫

【为什么学爬虫?】 &nbsp; &nbsp; &nbsp; &nbsp;1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到! &nbsp; &nbsp; &nbsp; &nbsp;2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是: 网络请求:模拟浏览器的行为从网上抓取数据。 数据解析:将请求下来的数据进行过滤,提取我们想要的数据。 数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。 那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是: 爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。 Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。 通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。 &nbsp; 从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求! 【课程服务】 专属付费社群+每周三讨论会+1v1答疑

三个项目玩转深度学习(附1G源码)

从事大数据与人工智能开发与实践约十年,钱老师亲自见证了大数据行业的发展与人工智能的从冷到热。事实证明,计算机技术的发展,算力突破,海量数据,机器人技术等,开启了第四次工业革命的序章。深度学习图像分类一直是人工智能的经典任务,是智慧零售、安防、无人驾驶等机器视觉应用领域的核心技术之一,掌握图像分类技术是机器视觉学习的重中之重。针对现有线上学习的特点与实际需求,我们开发了人工智能案例实战系列课程。打造:以项目案例实践为驱动的课程学习方式,覆盖了智能零售,智慧交通等常见领域,通过基础学习、项目案例实践、社群答疑,三维立体的方式,打造最好的学习效果。

基于STM32的电子时钟设计

时钟功能 还有闹钟功能,温湿度功能,整点报时功能 你值得拥有

学生成绩管理系统(PHP + MYSQL)

做的是数据库课程设计,使用的php + MySQL,本来是黄金搭配也就没啥说的,推荐使用wamp服务器,里面有详细的使用说明,带有界面的啊!呵呵 不行的话,可以给我留言!

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

程序员的兼职技能课

获取讲师答疑方式: 在付费视频第一节(触摸命令_ALL)片头有二维码及加群流程介绍 限时福利 原价99元,今日仅需39元!购课添加小助手(微信号:itxy41)按提示还可领取价值800元的编程大礼包! 讲师介绍: 苏奕嘉&nbsp;前阿里UC项目工程师 脚本开发平台官方认证满级(六级)开发者。 我将如何教会你通过【定制脚本】赚到你人生的第一桶金? 零基础程序定制脚本开发课程,是完全针对零脚本开发经验的小白而设计,课程内容共分为3大阶段: ①前期将带你掌握Q开发语言和界面交互开发能力; ②中期通过实战来制作有具体需求的定制脚本; ③后期将解锁脚本的更高阶玩法,打通任督二脉; ④应用定制脚本合法赚取额外收入的完整经验分享,带你通过程序定制脚本开发这项副业,赚取到你的第一桶金!

实用主义学Python(小白也容易上手的Python实用案例)

原价169,限时立减100元! 系统掌握Python核心语法16点,轻松应对工作中80%以上的Python使用场景! 69元=72讲+源码+社群答疑+讲师社群分享会&nbsp; 【哪些人适合学习这门课程?】 1)大学生,平时只学习了Python理论,并未接触Python实战问题; 2)对Python实用技能掌握薄弱的人,自动化、爬虫、数据分析能让你快速提高工作效率; 3)想学习新技术,如:人工智能、机器学习、深度学习等,这门课程是你的必修课程; 4)想修炼更好的编程内功,优秀的工程师肯定不能只会一门语言,Python语言功能强大、使用高效、简单易学。 【超实用技能】 从零开始 自动生成工作周报 职场升级 豆瓣电影数据爬取 实用案例 奥运冠军数据分析 自动化办公:通过Python自动化分析Excel数据并自动操作Word文档,最终获得一份基于Excel表格的数据分析报告。 豆瓣电影爬虫:通过Python自动爬取豆瓣电影信息并将电影图片保存到本地。 奥运会数据分析实战 简介:通过Python分析120年间奥运会的数据,从不同角度入手分析,从而得出一些有趣的结论。 【超人气老师】 二两 中国人工智能协会高级会员 生成对抗神经网络研究者 《深入浅出生成对抗网络:原理剖析与TensorFlow实现》一书作者 阿里云大学云学院导师 前大型游戏公司后端工程师 【超丰富实用案例】 0)图片背景去除案例 1)自动生成工作周报案例 2)豆瓣电影数据爬取案例 3)奥运会数据分析案例 4)自动处理邮件案例 5)github信息爬取/更新提醒案例 6)B站百大UP信息爬取与分析案例 7)构建自己的论文网站案例

Java8零基础入门视频教程

这门课程基于主流的java8平台,由浅入深的详细讲解了java SE的开发技术,可以使java方向的入门学员,快速扎实的掌握java开发技术!

Python数据挖掘简易入门

&nbsp; &nbsp; &nbsp; &nbsp; 本课程为Python数据挖掘方向的入门课程,课程主要以真实数据为基础,详细介绍数据挖掘入门的流程和使用Python实现pandas与numpy在数据挖掘方向的运用,并深入学习如何运用scikit-learn调用常用的数据挖掘算法解决数据挖掘问题,为进一步深入学习数据挖掘打下扎实的基础。

零基础学C#编程—C#从小白到大咖

本课程从初学者角度出发,提供了C#从入门到成为程序开发高手所需要掌握的各方面知识和技术。 【课程特点】 1 由浅入深,编排合理; 2 视频讲解,精彩详尽; 3 丰富实例,轻松易学; 4 每章总结配有难点解析文档。 15大章节,228课时,1756分钟与你一同进步!

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

多功能数字钟.zip

利用数字电子计数知识设计并制作的数字电子钟(含multisim仿真),该数字钟具有显示星期、24小时制时间、闹铃、整点报时、时间校准功能

极简JAVA学习营第四期(报名以后加助教微信:eduxy-1)

想学好JAVA必须要报两万的培训班吗? Java大神勿入 如果你: 零基础想学JAVA却不知道从何入手 看了一堆书和视频却还是连JAVA的环境都搭建不起来 囊中羞涩面对两万起的JAVA培训班不忍直视 在职没有每天大块的时间专门学习JAVA 那么恭喜你找到组织了,在这里有: 1. 一群志同道合立志学好JAVA的同学一起学习讨论JAVA 2. 灵活机动的学习时间完成特定学习任务+每日编程实战练习 3. 热心助人的助教和讲师及时帮你解决问题,不按时完成作业小心助教老师的家访哦 上一张图看看前辈的感悟: &nbsp; &nbsp; 大家一定迫不及待想知道什么是极简JAVA学习营了吧,下面就来给大家说道说道: 什么是极简JAVA学习营? 1. 针对Java小白或者初级Java学习者; 2. 利用9天时间,每天1个小时时间; 3.通过 每日作业 / 组队PK / 助教答疑 / 实战编程 / 项目答辩 / 社群讨论 / 趣味知识抢答等方式让学员爱上学习编程 , 最终实现能独立开发一个基于控制台的‘库存管理系统’ 的学习模式 极简JAVA学习营是怎么学习的? &nbsp; 如何报名? 只要购买了极简JAVA一:JAVA入门就算报名成功! &nbsp;本期为第四期极简JAVA学习营,我们来看看往期学员的学习状态: 作业看这里~ &nbsp; 助教的作业报告是不是很专业 不交作业打屁屁 助教答疑是不是很用心 &nbsp; 有奖抢答大家玩的很嗨啊 &nbsp; &nbsp; 项目答辩终于开始啦 &nbsp; 优秀者的获奖感言 &nbsp; 这是答辩项目的效果 &nbsp; &nbsp; 这么细致的服务,这么好的氛围,这样的学习效果,需要多少钱呢? 不要1999,不要199,不要99,只要9.9 是的你没听错,只要9.9以上所有就都属于你了 如果你: 1、&nbsp;想学JAVA没有基础 2、&nbsp;想学JAVA没有整块的时间 3、&nbsp;想学JAVA没有足够的预算 还等什么?赶紧报名吧,抓紧抢位,本期只招300人,错过只有等时间待定的下一期了 &nbsp; 报名请加小助手微信:eduxy-1 &nbsp; &nbsp;

Python可以这样学(第一季:Python内功修炼)

董付国系列教材《Python程序设计基础》、《Python程序设计(第2版)》、《Python可以这样学》配套视频,讲解Python 3.5.x和3.6.x语法、内置对象用法、选择与循环以及函数设计与使用、lambda表达式用法、字符串与正则表达式应用、面向对象编程、文本文件与二进制文件操作、目录操作与系统运维、异常处理结构。

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

机器学习实战系列套餐(必备基础+经典算法+案例实战)

机器学习实战系列套餐以实战为出发点,帮助同学们快速掌握机器学习领域必备经典算法原理并结合Python工具包进行实战应用。建议学习顺序:1.Python必备工具包:掌握实战工具 2.机器学习算法与实战应用:数学原理与应用方法都是必备技能 3.数据挖掘实战:通过真实数据集进行项目实战。按照下列课程顺序学习即可! 课程风格通俗易懂,用最接地气的方式带领大家轻松进军机器学习!提供所有课程代码,PPT与实战数据,有任何问题欢迎随时与我讨论。

Java面试题大全(2020版)

发现网上很多Java面试题都没有答案,所以花了很长时间搜集整理出来了这套Java面试题大全,希望对大家有帮助哈~ 本套Java面试题大全,全的不能再全,哈哈~ 一、Java 基础 1. JDK 和 JRE 有什么区别? JDK:Java Development Kit 的简称,java 开发工具包,提供了 java 的开发环境和运行环境。 JRE:Java Runtime Environ...

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

深度学习原理+项目实战+算法详解+主流框架(套餐)

深度学习系列课程从深度学习基础知识点开始讲解一步步进入神经网络的世界再到卷积和递归神经网络,详解各大经典网络架构。实战部分选择当下最火爆深度学习框架PyTorch与Tensorflow/Keras,全程实战演示框架核心使用与建模方法。项目实战部分选择计算机视觉与自然语言处理领域经典项目,从零开始详解算法原理,debug模式逐行代码解读。适合准备就业和转行的同学们加入学习! 建议按照下列课程顺序来进行学习 (1)掌握深度学习必备经典网络架构 (2)深度框架实战方法 (3)计算机视觉与自然语言处理项目实战。(按照课程排列顺序即可)

HoloLens2开发入门教程

本课程为HoloLens2开发入门教程,讲解部署开发环境,安装VS2019,Unity版本,Windows SDK,创建Unity项目,讲解如何使用MRTK,编辑器模拟手势交互,打包VS工程并编译部署应用到HoloLens上等。

几率大的Redis面试题(含答案)

本文的面试题如下: Redis 持久化机制 缓存雪崩、缓存穿透、缓存预热、缓存更新、缓存降级等问题 热点数据和冷数据是什么 Memcache与Redis的区别都有哪些? 单线程的redis为什么这么快 redis的数据类型,以及每种数据类型的使用场景,Redis 内部结构 redis的过期策略以及内存淘汰机制【~】 Redis 为什么是单线程的,优点 如何解决redis的并发竞争key问题 Red...

MFC一站式终极全套课程包

该套餐共包含从C小白到C++到MFC的全部课程,整套学下来绝对成为一名C++大牛!!!

【数据结构与算法综合实验】欢乐连连看(C++ & MFC)案例

这是武汉理工大学计算机学院数据结构与算法综合实验课程的第三次项目:欢乐连连看(C++ & MFC)迭代开发代码。运行环境:VS2017。已经实现功能:开始游戏、消子、判断胜负、提示、重排、计时、帮助。

YOLOv3目标检测实战:训练自己的数据集

YOLOv3是一种基于深度学习的端到端实时目标检测方法,以速度快见长。本课程将手把手地教大家使用labelImg标注和使用YOLOv3训练自己的数据集。课程分为三个小项目:足球目标检测(单目标检测)、梅西目标检测(单目标检测)、足球和梅西同时目标检测(两目标检测)。 本课程的YOLOv3使用Darknet,在Ubuntu系统上做项目演示。包括:安装Darknet、给自己的数据集打标签、整理自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型、性能统计(mAP计算和画出PR曲线)和先验框聚类。 Darknet是使用C语言实现的轻型开源深度学习框架,依赖少,可移植性好,值得深入探究。 除本课程《YOLOv3目标检测实战:训练自己的数据集》外,本人推出了有关YOLOv3目标检测的系列课程,请持续关注该系列的其它课程视频,包括: 《YOLOv3目标检测实战:交通标志识别》 《YOLOv3目标检测:原理与源码解析》 《YOLOv3目标检测:网络模型改进方法》 敬请关注并选择学习!

u-boot-2015.07.tar.bz2

uboot-2015-07最新代码,喜欢的朋友请拿去

相关热词 c# 局部 截图 页面 c#实现简单的文件管理器 c# where c# 取文件夹路径 c# 对比 当天 c# fir 滤波器 c# 和站 队列 c# txt 去空格 c#移除其他类事件 c# 自动截屏
立即提问