FFmpeg:avcodec_find_encoder_by_name("libx264")返回空,是怎么回事呢?

FFmpeg编译时的参数:./configure --enable-shared --enable-static --enable-pic --enable-gpl --enable-avresample --enable-sdl --enable-libx264

cmd中使用ffmpeg -encoders
图片说明
新线索:
在win7、vs2015中此函数不为空,在win10、vs2017中为空;
在win10、vs2017中的debug模式下,此函数返回空,release模式下不为空;

1个回答

检查下在ffmpeg的lib目录下,有没有libx264的dll/so文件。

qq_37145028
真重名 bin目录下有libx264-157.dll,lib目录下有libx264.dll.a
7 个月之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
FFmpeg中的avcodec_find_encoder_by_name("libx264")内幕是怎样的呢?

为什么我在win7、vs2015中可以得到一个AVCodec,而在win10、vs2017中却返回NULL呢? 新线索: 在win10、vs2017中,debug模式下此函数返回空,在release模式下不为空;

ffmpeg的avcodec_find_decoder(AV_CODEC_ID_BMP)返回空是怎么回事呢?

if (!avcodec_find_decoder(AV_CODEC_ID_BMP)) { exit(__LINE__); }

ffmpeg avcodec_receive_frame 解码效率慢

``` if (pPacket->stream_index == videoIndex) { Uint32 pretimer = SDL_GetTicks(); /* ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, pPacket); if (ret < 0) { printf("解帧失败!\n"); return -1; } */ ret = avcodec_send_packet(pCodecCtx, pPacket); if (ret < 0 && ret != AVERROR(EAGAIN) && ret != AVERROR_EOF) return -1; ret = avcodec_receive_frame(pCodecCtx, pFrame); if (ret < 0 && ret != AVERROR_EOF) { //fprintf(stderr, "Could not open audio codec: %s\n", av_err2str(ret)); continue; } Uint32 a = SDL_GetTicks() - pretimer; cout << "avcodec_receive_frame" << a << endl; } ``` ffmpeg 我是用3.4版本 解码时,使用函数avcodec_send_packet avcodec_receive_frame 获取一帧4K高清视频,30ms左右 使用2.8老版本时 avcodec_decode_video2 获取一帧4K高清视频 10ms左右,请问这种情况如何解决。为什么新版本的解码速度反倒是变慢了。

ffmpeg 硬编码时avcodec_encode_video2返回错误码-11(Resource temporarily unavailable)

用ffmpeg将bmp文件序列编码为h264,使用软编码器AV_CODEC_ID_H264时 程序可以正常运行,换成硬编码器h264_nvenc后,程序有时可以正常运行,但有时会报错,错误现象为: 编码生成的h264文件大小为0KB,avcodec_encode_video2()函数返回错误码-11,使用av_strerror显示错误码映射为“Resource temporarily unavailable”。 换成新的API(avcodec_send_frame和avcodec_receive_packet)后,已经返回-11。程序如下: ``` #include<stdio.h> #include<iostream> #include<afx.h> using namespace std; extern"C" { #include <libavcodec\avcodec.h> #include <libavformat\avformat.h> #include <libswscale\swscale.h> #include <libavutil\pixfmt.h> #include <libavutil\imgutils.h> #include <libavutil/opt.h> #include "libavutil/time.h" } #define bmpImagePath "F:/laboratory/holiday/bmp2H264/image_bmp1/%03d.bmp" //bmp图像路径 #define H264FilePath "F:/laboratory/holiday/bmp2H264/h264/text.h264" //H264文件输出路径 const int image_number = 100; //bmp图片数量 int main() { CFile file[image_number + 1000]; BYTE *szTxt[image_number + 1000]; int nWidth = 0; int nHeight = 0; int nDataLen = 0; int nLen; CString csFileName; for (int fileI = 1; fileI <= image_number; fileI++) { csFileName.Format(bmpImagePath, fileI); file[fileI - 1].Open(csFileName, CFile::modeRead | CFile::typeBinary); nLen = file[fileI - 1].GetLength(); szTxt[fileI - 1] = new BYTE[nLen]; file[fileI - 1].Read(szTxt[fileI - 1], nLen); file[fileI - 1].Close(); BITMAPFILEHEADER bmpFHeader; BITMAPINFOHEADER bmpIHeader; memcpy(&bmpFHeader, szTxt[fileI - 1], sizeof(BITMAPFILEHEADER)); int nHeadLen = bmpFHeader.bfOffBits - sizeof(BITMAPFILEHEADER); memcpy(&bmpIHeader, szTxt[fileI - 1] + sizeof(BITMAPFILEHEADER), nHeadLen); nWidth = bmpIHeader.biWidth; nHeight = bmpIHeader.biHeight; szTxt[fileI - 1] += bmpFHeader.bfOffBits; nDataLen = nLen - bmpFHeader.bfOffBits; cout << "fileI:" << fileI << endl; } av_register_all(); avcodec_register_all(); AVFrame *m_pRGBFrame = new AVFrame[1]; //RGB帧数据 AVFrame *m_pYUVFrame = new AVFrame[1];; //YUV帧数据 AVCodecContext *c = NULL; //AVCodecContext *in_c = NULL; AVCodec *pCodecH264 = NULL; //编码器 uint8_t * yuv_buff = NULL;// //查找h264编码器 //pCodecH264 = avcodec_find_encoder(AV_CODEC_ID_H264); //软编码器 pCodecH264 = avcodec_find_encoder_by_name("h264_nvenc"); //硬编码器 if (!pCodecH264) { fprintf(stderr, "h264 codec not found\n"); exit(1); } c = avcodec_alloc_context3(pCodecH264); if (!c) { throw exception("avcodec_alloc_context3 failed!"); } c->bit_rate = 3000000;// put sample parameters //c->bit_rate = 2500000;// put sample parameters c->width = nWidth; c->height = nHeight; AVRational rate; rate.num = 1; rate.den = 25; c->time_base = rate;//(AVRational){1,25}; c->gop_size = 10; // emit one intra frame every ten frames c->max_b_frames = 1; c->thread_count = 1; c->pix_fmt = AV_PIX_FMT_YUV420P;//PIX_FMT_RGB24; if (avcodec_open2(c, pCodecH264, NULL)<0) //打开编码器 TRACE("不能打开编码库"); int size = c->width * c->height; yuv_buff = (uint8_t *)malloc((size * 3) / 2); // size for YUV 420 uint8_t * rgb_buff = new uint8_t[nDataLen]; //将rgb图像数据填充rgb帧 //图象编码 //int outbuf_size = 100000000; int outbuf_size = nWidth * nHeight * 3; uint8_t * outbuf = (uint8_t*)malloc(outbuf_size); int u_size = 0; FILE *f = NULL; char * filename = H264FilePath; f = fopen(filename, "wb"); if (!f) { TRACE("could not open %s\n", filename); exit(1); } //初始化SwsContext SwsContext * scxt = sws_getContext(c->width, c->height, AV_PIX_FMT_BGR24, c->width, c->height, AV_PIX_FMT_YUV420P, SWS_POINT, NULL, NULL, NULL); AVPacket avpkt; //AVFrame *pTFrame=new AVFrame int num = 0; long long int vpts = 0; for (int i = 0; i< image_number; ++i) { int index = i; memcpy(rgb_buff, szTxt[index], nDataLen); avpicture_fill((AVPicture*)m_pRGBFrame, (uint8_t*)rgb_buff, AV_PIX_FMT_RGB24, nWidth, nHeight); //将YUV buffer 填充YUV Frame avpicture_fill((AVPicture*)m_pYUVFrame, (uint8_t*)yuv_buff, AV_PIX_FMT_YUV420P, nWidth, nHeight); // 翻转RGB图像 m_pRGBFrame->data[0] += m_pRGBFrame->linesize[0] * (nHeight - 1); m_pRGBFrame->linesize[0] *= -1; m_pRGBFrame->data[1] += m_pRGBFrame->linesize[1] * (nHeight / 2 - 1); m_pRGBFrame->linesize[1] *= -1; m_pRGBFrame->data[2] += m_pRGBFrame->linesize[2] * (nHeight / 2 - 1); m_pRGBFrame->linesize[2] *= -1; //将RGB转化为YUV sws_scale(scxt, m_pRGBFrame->data, m_pRGBFrame->linesize, 0, c->height, m_pYUVFrame->data, m_pYUVFrame->linesize); int got_packet_ptr = 0; av_init_packet(&avpkt); avpkt.data = outbuf; avpkt.size = outbuf_size; //m_pYUVFrame->pts = vpts; /*u_size = avcodec_send_frame(c, m_pYUVFrame); if (u_size != 0) { char errorbuf[1024] = { 0 }; av_strerror(u_size, errorbuf, sizeof(errorbuf)); cout << "error number:" << u_size << "avcodec_send_frame error:" << errorbuf << endl; } u_size = avcodec_receive_packet(c, &avpkt); if (u_size != 0) { char errorbuf[1024] = { 0 }; av_strerror(u_size, errorbuf, sizeof(errorbuf)); cout << "error number:"<< u_size << " avcodec_receive_packet error:" << errorbuf << endl; }*/ u_size = avcodec_encode_video2(c, &avpkt, m_pYUVFrame, &got_packet_ptr); if (u_size != 0) { char errorbuf[1024] = { 0 }; av_strerror(u_size, errorbuf, sizeof(errorbuf)); cout << "error number:" << u_size << "avcodec_encode_video2 error:" << errorbuf << endl; } m_pYUVFrame->pts++; //cout << "encode frame" << index + 1 << " successfully!" << endl; cout << "u_size:" << u_size << endl; if (u_size == 0) { cout << "encode frame" << index + 1 << " successfully!" << endl; cout << "*************" << ++num << "************" << endl; fwrite(avpkt.data, 1, avpkt.size, f); } //vpts++; else { avcodec_send_packet(c, &avpkt); } } cout << "nWidth" << nWidth << endl; cout << "nHeight" << nHeight << endl; fclose(f); delete[]m_pRGBFrame; delete[]m_pYUVFrame; delete[]rgb_buff; free(outbuf); free(yuv_buff); avcodec_close(c); av_free(c); //avcodec_free_context(&c); system("pause"); return 0; } ``` 错误结果截图如下: ![图片说明](https://img-ask.csdn.net/upload/202004/19/1587275773_301317.png)

FFmpeg C++ 的 avcodec_encode_video2 返回 -40

我想通過avcodec_encode_video2 覆蓋packet中的memory來達到刷新我做過特殊渲染的影像,但avcodec_encode_video2 的返回值是不成功-40問題: 我正常撥放輸出都沒問題 就是沒辦法蓋過圖層,是不是哪邊memory寫法不正確呢? 代碼如下: AVOutputFormat* ofmt = NULL; //Input AVFormatContext and Output AVFormatContext AVFormatContext* i_pFormatCtx = NULL, * out_pFormatCtx = NULL; AVCodecContext* pCodecCtx;//視頻解碼器 AVCodecContext* pCodecCtxAudio;//音頻解碼器 AVCodec* pCodec; AVCodec* pCodecAudio; AVPacket packet; string in_filename; string out_filename; int ret, i; int videoindex = -1; int audioindex = -1; int frame_index = 0; int64_t start_time = 0; uint8_t* buffer; AVFrame* pFrame; AVFrame* pFrameRGB; int frameFinished; int frameAudioFinished; int numBytes; AVStream* in_stream, * out_stream; vector<AVPacket> BIGpacket; in_filename = "D:/yolo/data_movie/f1.mp4"; out_filename = "rtmp://localhost:1935/live/home";//怀堤 URLㄗOutput URLㄘ[RTMP] //================ // 註冊: av_register_all(); //================ //Network avformat_network_init(); //======================= //Input if ((ret = avformat_open_input(&i_pFormatCtx, in_filename.c_str(), 0, 0)) < 0) { //printf("Could not open input file."); goto end; } if ((ret = avformat_find_stream_info(i_pFormatCtx, 0)) < 0) { //printf("Failed to retrieve input stream information"); goto end; } for (i = 0; i < i_pFormatCtx->nb_streams; i++) { if (i_pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) { videoindex = i; } if (i_pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_AUDIO) { audioindex = i; } } av_dump_format(i_pFormatCtx, 0, in_filename.c_str(), 0); //Output avformat_alloc_output_context2(&out_pFormatCtx, NULL, "flv", out_filename.c_str()); //RTMP if (!out_pFormatCtx) { //printf("Could not create output context\n"); ret = AVERROR_UNKNOWN; goto end; } ofmt = out_pFormatCtx->oformat; for (i = 0; i < i_pFormatCtx->nb_streams; i++) { //Create output AVStream according to input AVStream AVStream* in_stream = i_pFormatCtx->streams[i]; AVStream* out_stream = avformat_new_stream(out_pFormatCtx, in_stream->codec->codec); if (!out_stream) { AfxMessageBox(L"Failed allocating output stream"); //printf("Failed allocating output stream\n"); ret = AVERROR_UNKNOWN; goto end; } //Copy the settings of AVCodecContext ret = avcodec_copy_context(out_stream->codec, in_stream->codec); if (ret < 0) { //printf("Failed to copy context from input to output stream codec context\n"); goto end; } out_stream->codec->codec_tag = 0; if (out_pFormatCtx->oformat->flags & AVFMT_GLOBALHEADER) out_stream->codec->flags |= AV_CODEC_FLAG_GLOBAL_HEADER; } //====================================================================== // 打开視頻解码器 pCodecCtx = i_pFormatCtx->streams[videoindex]->codec; pCodec = avcodec_find_decoder(pCodecCtx->codec_id); if (avcodec_open2(pCodecCtx, pCodec, 0) < 0) { DbgPrint("Could not open codec"); return; } //====================================================================== // 打开音頻解码器 pCodecCtxAudio= i_pFormatCtx->streams[audioindex]->codec; pCodecAudio= avcodec_find_decoder(pCodecCtxAudio->codec_id); if (avcodec_open2(pCodecCtxAudio, pCodecAudio, 0) < 0) { DbgPrint("Could not open codec"); return; } #if OUTPUT_PCM pFile = fopen("output.pcm", "wb"); #endif** packet = *(AVPacket*)av_malloc(sizeof(AVPacket)); av_init_packet(&packet); //===================================================================== // 破解視頻某些编解码器可能生成的错误帧速率 if (pCodecCtx->time_base.num > 1000 && pCodecCtx->time_base.den == 1) { pCodecCtx->time_base.den = 1000; } // 分配视频帧 pFrame = av_frame_alloc(); // Allocate an AVFrame structure pFrameRGB = av_frame_alloc(); if (pFrameRGB == NULL) return; numBytes = avpicture_get_size(AV_PIX_FMT_RGB24, pCodecCtx->width,pCodecCtx->height);// Determine required buffer size and allocate buffer buffer = (uint8_t*)av_malloc(numBytes * sizeof(uint8_t)); avpicture_fill((AVPicture*)pFrameRGB, buffer, AV_PIX_FMT_RGB24,pCodecCtx->width, pCodecCtx->height);// Assign appropriate parts of buffer to image planes in pFrameRGB long prepts = 0; //Dump Format------------------ av_dump_format(out_pFormatCtx, 0, out_filename.c_str(), 1); //Open output URL if (!(ofmt->flags & AVFMT_NOFILE)) { ret = avio_open(&out_pFormatCtx->pb, out_filename.c_str(), AVIO_FLAG_WRITE); if (ret < 0) { AfxMessageBox(L"Could not open output URL"); //printf("Could not open output URL '%s'", out_filename); goto end; } } //Write file header ret = avformat_write_header(out_pFormatCtx, NULL); if (ret < 0) { //printf("Error occurred when opening output URL\n"); goto end; } start_time = av_gettime(); while (1) { //Get an AVPacket ret = av_read_frame(i_pFormatCtx, &packet); if (ret < 0) { break; } if (G_PAUSE) { break; } /* if (packet.stream_index == audioindex) { //聲音: ret = avcodec_decode_audio4(pCodecCtx, pFrame, &frameAudioFinished,&packet); } */ //Important:Delay if (packet.stream_index == videoindex) { //==================================================================================== //幀解碼器: int a=avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished, &packet);// Decode video frame //ret = avcodec_encode_video2(pCodecCtx, &packet, pFrameRGB, &frameFinished); if (frameFinished) { static struct SwsContext* img_convert_ctx; if (img_convert_ctx == NULL) { int w = pCodecCtx->width; int h = pCodecCtx->height; img_convert_ctx = sws_getContext(w, h, pCodecCtx->pix_fmt, w, h, AV_PIX_FMT_RGB24, 4, NULL, NULL, NULL); if (img_convert_ctx == NULL) { fprintf(stderr, "Cannot initialize the conversion context!\n"); exit(1); } } int ret = sws_scale(img_convert_ctx, pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize); if (ret == 0) { fprintf(stderr, "SWS_Scale failed [%d]!\n", ret); continue; } // Save the frame to disk if (i++ <= 5) { SaveFrame(pFrameRGB, pCodecCtx->width, pCodecCtx->height, i); } CopyDate(pFrameRGB, pCodecCtx->width, pCodecCtx->height, packet.pts - prepts); ret =avcodec_encode_video2(pCodecCtx, &packet, pFrameRGB, &frameFinished); if (ret < 0) { AfxMessageBox(L"Encoding失敗"); } prepts = packet.pts; } //============================================================================================== AVRational time_base = i_pFormatCtx->streams[videoindex]->time_base; AVRational time_base_q = { 1,AV_TIME_BASE }; int64_t pts_time = av_rescale_q(packet.dts, time_base, time_base_q); int64_t now_time = av_gettime() - start_time; if (pts_time > now_time) { av_usleep(pts_time - now_time); } } //Simple Write PTS if (packet.pts == AV_NOPTS_VALUE) { //Write PTS AVRational time_base1 = i_pFormatCtx->streams[videoindex]->time_base; //Duration between 2 frames (us) int64_t calc_duration = (double)AV_TIME_BASE / av_q2d(i_pFormatCtx->streams[videoindex]->r_frame_rate); //Parameters packet.pts = (double)(frame_index * calc_duration) / (double)(av_q2d(time_base1) * AV_TIME_BASE); packet.dts = packet.pts; packet.duration = (double)calc_duration / (double)(av_q2d(time_base1) * AV_TIME_BASE); } in_stream = i_pFormatCtx->streams[packet.stream_index]; out_stream = out_pFormatCtx->streams[packet.stream_index]; /* copy packet */ //Convert PTS/DTS packet.pts = av_rescale_q_rnd(packet.pts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)); packet.dts = av_rescale_q_rnd(packet.dts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)); packet.duration = av_rescale_q(packet.duration, in_stream->time_base, out_stream->time_base); packet.pos = -1; //Print to Screen if (packet.stream_index == videoindex) { //printf("Send %8d video frames to output URL\n", frame_index); frame_index++; //ret = av_interleaved_write_frame(out_pFormatCtx, &packet); } //ret = av_write_frame(ofmt_ctx, &pkt); ret = av_interleaved_write_frame(out_pFormatCtx, &packet); if (ret < 0) { //printf("Error muxing packet\n"); break; } av_free_packet(&packet); } //Write file trailer av_write_trailer(out_pFormatCtx); end: AfxMessageBox(L"Stream is closed"); avformat_close_input(&i_pFormatCtx); /* close output */ if (out_pFormatCtx && !(ofmt->flags & AVFMT_NOFILE)) avio_close(out_pFormatCtx->pb); avformat_free_context(out_pFormatCtx); if (ret < 0 && ret != AVERROR_EOF) { //printf("Error occurred.\n"); return ; } return;

FFmpeg 编码 avcodec_open2 x264 memory leak

开发平台 : Mac OS X EI Capitan 10.11.4 Xcode Version 7.3 iOS 9.3 代码 : // x264 参数 double crf = 23; int qmin = 12;// 最小的量化因子。取值范围0-69。 int qmax = 18;// 最大的量化因子。取值范围13-69。 int keyint = 16; int scenecut = 0; // slow // ultrafast // superfast av_opt_set(codec_ctx->priv_data, "preset", "ultrafast", 0); // zerolatency // stillimage,fastdecode,zerolatency av_opt_set(codec_ctx->priv_data, "tune", "stillimage,fastdecode,zerolatency", 0); av_opt_set(codec_ctx->priv_data, "profile", "baseline", 0); char x264opts[512] = { 0 }; sprintf(x264opts, "crf=%f:scenecut=%d", crf, scenecut); av_opt_set(codec_ctx->priv_data, "x264opts", x264opts, 0); codec_ctx->codec_id = codec_id; codec_ctx->codec_type = AVMEDIA_TYPE_VIDEO; codec_ctx->pix_fmt = PIX_FMT_YUV420P; codec_ctx->width = in_width; codec_ctx->height = in_height; codec_ctx->bit_rate = bit_rate;// 比特率 codec_ctx->time_base = (AVRational){ 1, in_frames_per_secs }; codec_ctx->qcompress = 1;// x264 参数 qcomp codec_ctx->qblur = 1; codec_ctx->qmin = qmin;// 最小量化系数 codec_ctx->qmax = qmax;// 最大量化系数 codec_ctx->keyint_min = 2;// 关键帧的最小间隔帧数 codec_ctx->gop_size = keyint;// 关键帧的最大间隔帧数,x264 参数 keyint codec_ctx->scenechange_threshold = scenecut;// 场景变化检测阈值 codec_ctx->max_b_frames = 0;// optional param 可选参数,禁用B帧,,设置 x264 参数 profile 值为 baseline 时,此参数失效 codec_ctx->thread_count = 1; codec_ctx->ticks_per_frame = 2; /* codec_ctx->rc_max_rate = 700;// 最大码流,x264单位kbps,ffmpeg单位bps,x264 参数 vbv-maxrate codec_ctx->rc_min_rate = 300;// 最小码流 codec_ctx->rc_buffer_size = codec_ctx->rc_max_rate + codec_ctx->rc_min_rate;// x264 参数 vbv-bufsize */ codec_ctx->max_qdiff = 6;// 固定量化器因子允许的最大偏差,取值范围0-69,x264 参数 qpstep codec_ctx->me_range = 5; codec_ctx->refs = 3;// 运动补偿,x264 参数 ref codec_ctx->rc_strategy = FF_RC_STRATEGY_XVID;// 码率控制策略,宏定义,查API codec_ctx->dct_algo = FF_DCT_AUTO; codec_ctx->idct_algo = FF_IDCT_AUTO; codec_ctx->profile = FF_PROFILE_H264_BASELINE; codec_ctx->codec_tag = 0; } if(oformat->flags & AVFMT_GLOBALHEADER) { codec_ctx->flags |= CODEC_FLAG_GLOBAL_HEADER; } av_error = avcodec_open2(codec_ctx, codec, NULL); if (0 != av_error) { goto fail_label; } g_out_fmt_ctx = fmt_ctx; g_video_codec_ctx = codec_ctx; video_stream_index = fmt_ctx->nb_streams - 1; ret = 0; fail_label: if (0 != ret) { printf("%s", "fail"); if (codec_ctx) { avcodec_close(codec_ctx); codec_ctx = NULL; } if (fmt_ctx) { avformat_free_context(fmt_ctx); fmt_ctx = NULL; } } else { printf("%s", "success"); } codec_ctx = NULL; stream = NULL; codec = NULL; } void test_release_mw_recorder_controller() { video_stream_index = -1; if (g_video_codec_ctx) { avcodec_close(g_video_codec_ctx); g_video_codec_ctx = NULL; } if (g_out_fmt_ctx) { avformat_free_context(g_out_fmt_ctx); g_out_fmt_ctx = NULL; } } - (void)click_init_h264:(id)sender { NSString *format_name = @"flv";// flv、aac NSArray *doc_paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES); NSString *doc_path = [doc_paths objectAtIndex:0]; NSString *filename = [doc_path stringByAppendingPathComponent:[NSString stringWithFormat:@"test_ffmpeg_encoder.%@", format_name]]; const char *format_name_str = format_name.UTF8String; const char *filename_str = filename.UTF8String; test_init_mw_recorder_controller(format_name_str, filename_str); } - (void)click_release_h264:(id)sender { test_release_mw_recorder_controller(); } 使用 Instruments 进行内存 leak 检测时,在调用 click_init_h264 方法后,就会出现 7个x264_malloc方法调用的memory leak的情况。 Instruments截图--->>>![图片说明](https://img-ask.csdn.net/upload/201605/26/1464240798_520440.png) 所以想请求各位有使用FFmpeg进行视频编码的高手,这是什么问题。是我的设置参数有问题,还是步骤有问题。请指点一下小弟。(小弟刚学FFmpeg,想写个iOS录制视频的例子,使用x264库进行视频编码,aac进行音频编码。现在可以正常编码,录制的视频也可以播。现在就差这个memory leak一直找不到解决办法)。 FFmpeg打印x264配置信息 : [libx264 @ 0x110060800] using cpu capabilities: MMX2 SSE2Fast SSSE3 SSE4.2 AVX FMA3 AVX2 LZCNT BMI2 [libx264 @ 0x110060800] profile Constrained Baseline, level 2.2 [libx264 @ 0x110060800] 264 - core 148 - H.264/MPEG-4 AVC codec - Copyleft 2003-2016 - http://www.videolan.org/x264.html - options: cabac=0 ref=3 deblock=0:-3:-3 analyse=0:0 me=dia subme=0 psy=1 psy_rd=2.00:0.70 mixed_ref=0 me_range=5 chroma_me=1 trellis=0 8x8dct=0 cqm=0 deadzone=21,11 fast_pskip=1 chroma_qp_offset=0 threads=5 lookahead_threads=5 sliced_threads=1 slices=5 nr=0 decimate=1 interlaced=0 bluray_compat=0 constrained_intra=0 bframes=0 weightp=0 keyint=6 keyint_min=2 scenecut=0 intra_refresh=0 rc=crf mbtree=0 crf=23.0 qcomp=1.00 qpmin=12 qpmax=18 qpstep=8 ip_ratio=1.40 aq=0 我自己找到了一些规律,不懂是否正确。 已找到泄露的调用 av_error = avcodec_open2(codec_ctx, codec, NULL); 这句一调用就有x264_malloc memory leak 出来了。 而且是泄露的个数是可以计算出来,是codec_ctx->qmax - codec_ctx->qmin + 1个泄露。所以在想是不是x264设置参数的问题导致。 求大神。

ffmpeg avcodec_open2问题

AVCodecContext *c; c->bit_rate = 400000; c->width = width; c->height = height; c->time_base = avRate; c->lmin = 1; c->lmax = 1000; c->me_method = 8; c->me_range = 16; c->me_subpel_quality = 7; c->qmin = 10; c->qmax = 51; c->gop_size = 12; /* emit one intra frame every twelve frames at most */ c->pix_fmt = PIX_FMT_YUV420P; if (c->codec_id == CODEC_ID_MPEG2VIDEO) { c->max_b_frames = 2; } if (c->codec_id == CODEC_ID_MPEG1VIDEO){ c->mb_decision=2; avcodec_open2宽度和高度不同时有时打开成功,有时失败,如1366*768打开成功,1365*767打开失败

使用FFmpeg avcodec_receive_frame解码h264视频流出现延时?

``` ret = avcodec_send_packet(avctx, pkt); if (ret < 0) { return -1; } while (ret >= 0){ ret = avcodec_receive_frame(avctx, frame); } ``` 解码网络H264数据 在网络出现中断丢失帧的时候有几率出现解码延时 重置解码器后又恢复正常,有什么方法可以不用重置解码器吗?

使用ffmpeg方法avcodec_encode_video2 编码参数问题!

雷博的代码! 此处文件格式为YUV420P 使用ffmpeg编码h.264 ![图片说明](https://img-ask.csdn.net/upload/201801/11/1515659805_828534.png) 讲解一下这里的pFrame->data为什么要这样赋值? 代码链接:http://blog.csdn.net/leixiaohua1020/article/details/25430425 假如原始帧格式为YUYV422P的时候 data又该怎么赋值?

ffmpeg 无法定位程序输入点avcodec_alloc_context3

从zeranoe 下载的开发库 ``` #include <stdio.h> #include <stdlib.h> #include <string.h> #include <libavcodec/avcodec.h> #include <libavutil/opt.h> #include <libavutil/imgutils.h> #pragma comment(lib, "avcodec.lib") #pragma comment(lib,"avutil.lib") int main(int argc, char **argv) { const char *filename, *codec_name; const AVCodec *codec; AVCodecContext *c = NULL; int i, ret, x, y; FILE *f; AVFrame *frame; AVPacket *pkt; uint8_t endcode[] = { 0, 0, 1, 0xb7 }; if (argc <= 2) { fprintf(stderr, "Usage: %s <output file> <codec name>\n", argv[0]); exit(0); } filename = argv[1]; codec_name = argv[2]; avcodec_register_all(); /* find the mpeg1video encoder */ codec = avcodec_find_encoder_by_name(codec_name); if (!codec) { fprintf(stderr, "Codec '%s' not found\n", codec_name); exit(1); } c = avcodec_alloc_context3(codec); if (!c) { fprintf(stderr, "Could not allocate video codec context\n"); exit(1); } av_opt_set(c->priv_data, "turn", "zerolatency", 0); return 0; } 只要加上av_opt_set(c->priv_data, "turn", "zerolatency", 0); 就会出现无法定位输入点 ```

avcodec_decode_video2()解码不成功

调用ffmpeg的库从文件中读出视频流信息,利用av_read_frame提取帧,最后调用avcodec_decode_video2接口对帧进行解码,代码如下: AVFormatContext *pFormatCtx; AVCodecContext *pCodecCtx; AVCodec *pCodec; AVFrame *pFrame2; AVPacket packet2; int H264GetStream() { int i, videoindex; char filepath[]="sample.mp4"; av_register_all(); pFormatCtx = avformat_alloc_context(); if(avformat_open_input(&pFormatCtx,filepath,NULL,NULL)!=0){ printf("无法打开文件\n"); return -1; } if(avformat_find_stream_info(pFormatCtx,NULL)<0) { printf("Couldn't find stream information.\n"); return -1; } videoindex=-1; for(i=0; i<pFormatCtx->nb_streams; i++) if(pFormatCtx->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO) { videoindex=i; break; } if(videoindex==-1) { printf("Didn't find a video stream.\n"); return -1; } pCodecCtx=pFormatCtx->streams[videoindex]->codec; pCodec=avcodec_find_decoder(pCodecCtx->codec_id); if(pCodec==NULL) { printf("Codec not found.\n"); return -1; } printf("pCodec=%d\n",pCodec->id); if(avcodec_open2(pCodecCtx, pCodec,NULL)<0) { printf("Could not open codec.\n"); return -1; } pFrame2=avcodec_alloc_frame(); int ret, got_picture; int y_size = pCodecCtx->width * pCodecCtx->height; //packet2=(AVPacket *)malloc(sizeof(AVPacket)); //av_new_packet(packet2, y_size); av_init_packet(&packet2); char filepath_out[]="bigbuckbunny_1920x1080.yuv"; fp_out = fopen(filepath_out, "wb"); if (!fp_out) { printf("Could not open output YUV file\n"); return -1; } //输出一下信息----------------------------- printf("文件信息-----------------------------------------\n"); av_dump_format(pFormatCtx,0,filepath,0); printf("-------------------------------------------------\n"); //------------------------------ while(av_read_frame(pFormatCtx, &packet2)>=0) { printf("packet2->stream_index=%d\n",packet2.stream_index); printf("videoindex=%d\n",videoindex); if(packet2.stream_index==videoindex) { printf("decode start!"); //packet->data[0]=0;packet->data[1]=0;packet->data[2]=0;packet->data[3]=1; // packet->size-=4; printf("packet2->data=%d %d %d %d\n",packet2.data[0],packet2.data[1],packet2.data[2],packet2.data[3]); printf("packet2->size=%d\n",packet2.size); ret = avcodec_decode_video2(pCodecCtx, pFrame2, &got_picture, &packet2); printf("got_picture=%x\n",got_picture); if(ret < 0) { printf("decode error!\n"); return -1; } if(got_picture) { printf("got_picture=%x\n",got_picture); //Y, U, V int i; for(i=0;i<pFrame->height;i++) { fwrite(pFrame->data[0]+pFrame->linesize[0]*i,1,pFrame->width,fp_out); } for(i=0;i<pFrame->height/2;i++) { fwrite(pFrame->data[1]+pFrame->linesize[1]*i,1,pFrame->width/2,fp_out); } for(i=0;i<pFrame->height/2;i++) { fwrite(pFrame->data[2]+pFrame->linesize[2]*i,1,pFrame->width/2,fp_out); } printf("Succeed to decode 1 frame!\n"); } } av_free_packet(&packet2); } //av_free(pFrameYUV); avcodec_close(pCodecCtx); avformat_close_input(&pFormatCtx); return 0; } 每次运行到ret = avcodec_decode_video2(pCodecCtx, pFrame2, &got_picture, &packet2)这一步程序就不再运行下去了,也没有任何返回值。 在这里打印信息检查了一下 while(av_read_frame(pFormatCtx, &packet2)>=0) { printf("packet2->stream_index=%d\n",packet2.stream_index); printf("videoindex=%d\n",videoindex); 发现packet2.stream_index的值一直不变,按道理应该还有一路音频流。 程序是在linux平台下运行的,求问哪里出错了!

ffmpeg编解码异常,Resource temporarily unavailable

修改ffplay官方代码,使用ffmpeg实现从新编码保存mp4功能。调用avcodec_receive_packet返回-1,提示Resource temporarily unavailable,保存出来的文件没有I帧。 完整代码: https://github.com/hrdzkj/ffplay/tree/ffplayOpengl (注意是在ffplayOpengl分支) 关键代码: int ffp_start_record(FFPlayer *ffp, const char *file_name) { assert(ffp); VideoState *is = ffp->is; if (!file_name || !strlen(file_name)) { // 没有路径 av_log(ffp, AV_LOG_ERROR, "filename is invalid"); goto end; } if (!is || !is->ic || is->paused || is->abort_request) { // 没有上下文,或者上下文已经停止 av_log(ffp, AV_LOG_ERROR, "is,is->ic,is->paused is invalid"); goto end; } if (ffp->is_record) { // 已经在录制 av_log(ffp, AV_LOG_ERROR, "recording has started"); goto end; } ffp->m_ofmt_ctx = NULL; ffp->is_record = 0; ffp->record_error = 0; // todo avformat_new_stream,avcodec_copy_context/avcodec_parameters_from_context 等api函数的作用,初始化了什么东西 // 初始化一个用于输出的AVFormatContext结构体 avformat_alloc_output_context2(&ffp->m_ofmt_ctx, NULL, "mp4", file_name); if (!ffp->m_ofmt_ctx) { av_log(ffp, AV_LOG_ERROR, "Could not create output context filename is %s\n", file_name); goto end; } stream_ctx = av_mallocz_array(is->ic->nb_streams, sizeof(*stream_ctx)); if (!stream_ctx) { goto end; } for (int i = 0; i < is->ic->nb_streams; i++) { int ret; AVCodec *encoder; AVCodecContext *enc_ctx; AVCodecContext *dec_ctx = is->ic->streams[i]->codec; if (dec_ctx->codec_type != AVMEDIA_TYPE_VIDEO && dec_ctx->codec_type != AVMEDIA_TYPE_AUDIO) { continue; } //对照输入流创建输出流通道 AVStream *in_stream = is->ic->streams[i]; AVStream *out_stream = avformat_new_stream(ffp->m_ofmt_ctx, NULL); if (!out_stream) { av_log(ffp, AV_LOG_ERROR, "Failed allocating output stream\n"); goto end; } //查找编码器、创建编码器上下文、设置编码器参数,然后打开编码器 encoder = avcodec_find_encoder(dec_ctx->codec_id); if (!encoder) { av_log(NULL, AV_LOG_FATAL, "Necessary encoder not found\n"); goto end; } enc_ctx = avcodec_alloc_context3(encoder); if (!enc_ctx) { av_log(NULL, AV_LOG_FATAL, "Failed to allocate the encoder context\n"); goto end; } //不是帧率的问题,是I P B帧的区别导致的问题了 ret = avcodec_parameters_to_context(enc_ctx, in_stream->codecpar); if (ret < 0) { printf("Failed to copy context input to output stream codec context\n"); goto end; } if (enc_ctx->codec_type == AVMEDIA_TYPE_VIDEO) { //enc_ctx->height = dec_ctx->height; //enc_ctx->width = dec_ctx->width; //enc_ctx->sample_aspect_ratio = dec_ctx->sample_aspect_ratio; //enc_ctx->gop_size = 10; //enc_ctx->max_b_frames = 0; //if (encoder->pix_fmts) //enc_ctx->pix_fmt = encoder->pix_fmts[0]; //else // enc_ctx->pix_fmt = dec_ctx->pix_fmt; enc_ctx->time_base = av_inv_q(dec_ctx->framerate); //enc_ctx->time_base = //(AVRational) { 1, 30 }; //enc_ctx->framerate = //(AVRational) { 30, 1 }; } else { //enc_ctx->sample_rate = dec_ctx->sample_rate; //enc_ctx->channel_layout = dec_ctx->channel_layout; //enc_ctx->channels = av_get_channel_layout_nb_channels(enc_ctx->channel_layout); //enc_ctx->sample_fmt = encoder->sample_fmts[0]; enc_ctx->time_base = (AVRational) { 1, dec_ctx->sample_rate }; } if (ffp->m_ofmt_ctx->flags & AVFMT_GLOBALHEADER) { enc_ctx->flags |= AV_CODEC_FLAG_GLOBAL_HEADER; } ret = avcodec_open2(enc_ctx, encoder, NULL); if (ret < 0) { av_log(NULL, AV_LOG_ERROR, "Cannot open video encoder for stream #%u\n", i); goto end; } ret = avcodec_copy_context(out_stream->codec, in_stream->codec); //ret = avcodec_parameters_to_context(out_stream->codec, in_stream->codecpar); //ret = avcodec_parameters_from_context(out_stream->codecpar, enc_ctx); if (ret < 0) { av_log(NULL, AV_LOG_ERROR, "Failed to copy encoder parameters to output stream #%u\n", i); goto end; } out_stream->time_base = enc_ctx->time_base; stream_ctx[i].enc_ctx = enc_ctx; } av_dump_format(ffp->m_ofmt_ctx, 0, file_name, 1); // 打开输出文件 if (!(ffp->m_ofmt_ctx->oformat->flags & AVFMT_NOFILE)) { if (avio_open(&ffp->m_ofmt_ctx->pb, file_name, AVIO_FLAG_WRITE) < 0) { av_log(ffp, AV_LOG_ERROR, "Could not open output file '%s'", file_name); goto end; } } // 写视频文件头 if (avformat_write_header(ffp->m_ofmt_ctx, NULL) < 0) { av_log(ffp, AV_LOG_ERROR, "Error occurred when opening output file\n"); goto end; } ffp->is_first = 0; ffp->is_record = 1; ffp->record_error = 0; return 0; end: ffp->record_error = 1; return -1; } static void encode(FFPlayer *ffp,AVCodecContext *enc_ctx, AVFrame *frame) { int ret; int got_frame;// malloc(sizeof(int)); AVPacket pkt = { 0 }; av_init_packet(&pkt); pkt.data = NULL; pkt.size = 0; int stream_index=getMediaTypeStreamIndex(ffp,AVMEDIA_TYPE_VIDEO); /* send the frame to the encoder */ if (frame) printf("Send frame %3"PRId64"\n", frame->pts); /* //旧的api ret= avcodec_encode_video2(enc_ctx, &pkt,frame, &got_frame); if (ret < 0) return ret; if (!(got_frame)) { fprintf(stderr, "avcodec_encode_video2 fail \n"); return ; } ffp_record_file(ffp, &pkt); av_packet_unref(&pkt); */ //新的api ret = avcodec_send_frame(enc_ctx, frame); if (ret < 0) { fprintf(stderr, "Error sending a frame for encoding\n"); return -1; } while (1) { ret = avcodec_receive_packet(enc_ctx, &pkt); if (ret) { fprintf(stderr, "Error encoding ret= %d,%s \n", ret,av_err2str(ret)); break; } fprintf(stdout, " -----> encoding success!\n"); pkt.stream_index = stream_index; ffp_record_file(ffp,&pkt); av_packet_unref(&pkt); } } 提示Resource temporarily unavailable的截图 ![图片说明](https://img-ask.csdn.net/upload/201911/14/1573714996_774759.jpg) 生成的mp4文件无I帧截图 ![图片说明](https://img-ask.csdn.net/upload/201911/14/1573715130_904969.png)

ffmpeg解码MediaCodec的h264编码问题

安卓下用MediaCodec的h264编码: ``` boolean eof = false; MediaCodec.BufferInfo bufferInfo = new MediaCodec.BufferInfo(); ByteBuffer[] outputBuffers = null; boolean sendKeyFrame = false; while (!eof) { int bufIndex = codec.dequeueOutputBuffer(bufferInfo, -1); eof = (bufferInfo.flags & MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0; try { if (bufIndex >= 0) { if (outputBuffers == null) { outputBuffers = codec.getOutputBuffers(); } ByteBuffer codecBuffer = outputBuffers[bufIndex]; codecBuffer.position(bufferInfo.offset); codecBuffer.limit(bufferInfo.offset + bufferInfo.size); byte[] buf = new byte[bufferInfo.size]; codecBuffer.get(buf, 0, bufferInfo.size); Socket.sendVideo(buf); // 发送数据 } else if (bufIndex == MediaCodec.INFO_OUTPUT_BUFFERS_CHANGED) { outputBuffers = null; } else if (bufIndex == MediaCodec.INFO_OUTPUT_FORMAT_CHANGED) { MediaFormat outputFormat = codec.getOutputFormat(); } } finally { if (bufIndex >= 0) { codec.releaseOutputBuffer(bufIndex, false); } } } ``` PC下vc使用ffmpeg参考网上的解码h264流 https://blog.csdn.net/xushan239/article/details/79028111 https://www.cnblogs.com/lidabo/p/3326502.html 参考各种等等, 错误: avcodec_decode_video2或者avcodec_send_packet返回AVERROR_INVALIDD(-1094995529) 要不就是在avformat_open_input里无限循环read_packet 问: 哪里出问题? 本人对ffmpeg、MediaCodec都不熟悉,谁能帮忙解决一下?

OBS STUDIO 编译失败 求解?

![图片说明](https://img-ask.csdn.net/upload/201807/08/1531061918_685111.png)我的环境: WIN7 64位, IDE: VS2015 CMAKE VERSION: cmake-3.12.0-rc2-win64-x64 OBS STUDIO SOURCE_URL: https://github.com/obsproject/obs-studio.git 相关配置: DepsPath:D:\OBS_STUDIO\dependencies2015\win32 QTDIR:D:/Qt/Qt5.8.0/5.8/msvc2015 Libavcoder_DIR: D:/OBS_STUDIO/dependencies2015/win32 **错误提示:** OBS_VERSION: 0.0.1 Found FFmpeg: D:/OBS_STUDIO/dependencies2015/win32/bin/avcodec.lib (found version "57.108.100") found components: avcodec avdevice avutil avformat Scripting: Luajit supported Scripting: Python 3 supported CMake Deprecation Warning at D:/OBS_STUDIO/cmake-3.12.0-rc2-win64-x64/cmake-3.12.0-rc2-win64-x64/share/cmake-3.12/Modules/UseSWIG.cmake:455 (message): SWIG_ADD_MODULE is deprecated. Use SWIG_ADD_LIBRARY instead. Call Stack (most recent call first): deps/obs-scripting/obspython/CMakeLists.txt:33 (SWIG_ADD_MODULE) CMake Deprecation Warning at D:/OBS_STUDIO/cmake-3.12.0-rc2-win64-x64/cmake-3.12.0-rc2-win64-x64/share/cmake-3.12/Modules/UseSWIG.cmake:677 (message): SWIG_LINK_LIBRARIES is deprecated. Use TARGET_LINK_LIBRARIES instead. Call Stack (most recent call first): deps/obs-scripting/obspython/CMakeLists.txt:34 (SWIG_LINK_LIBRARIES) **CMake Error at deps/obs-scripting/obspython/CMakeLists.txt:45 (set_target_properties): set_target_properties Can not find target to add properties to: _obspython Call Stack (most recent call first): deps/obs-scripting/obspython/CMakeLists.txt:76 (install_plugin_bin_swig) ** CMake Deprecation Warning at D:/OBS_STUDIO/cmake-3.12.0-rc2-win64-x64/cmake-3.12.0-rc2-win64-x64/share/cmake-3.12/Modules/UseSWIG.cmake:455 (message): SWIG_ADD_MODULE is deprecated. Use SWIG_ADD_LIBRARY instead. Call Stack (most recent call first): deps/obs-scripting/obslua/CMakeLists.txt:19 (SWIG_ADD_MODULE) CMake Deprecation Warning at D:/OBS_STUDIO/cmake-3.12.0-rc2-win64-x64/cmake-3.12.0-rc2-win64-x64/share/cmake-3.12/Modules/UseSWIG.cmake:677 (message): SWIG_LINK_LIBRARIES is deprecated. Use TARGET_LINK_LIBRARIES instead. Call Stack (most recent call first): deps/obs-scripting/obslua/CMakeLists.txt:20 (SWIG_LINK_LIBRARIES) Jansson >=2.5 not found, building bundled version C compiler: MSVC Found FFmpeg: D:/OBS_STUDIO/dependencies2015/win32/bin/avformat.lib (found version "57.84.100") found components: avformat avutil swscale swresample avcodec Using libavcodec for image loading in libobs Found FFmpeg: D:/OBS_STUDIO/dependencies2015/win32/bin/avcodec.lib (found version "57.108.100") found components: avcodec avutil avformat libdshowcapture submodule not found! Please fetch submodules. win-dshow plugin disabled. Could NOT find LibVLC_INCLUDES (missing: VLC_INCLUDE_DIR) LibVLC includes not found, VLC video plugin disabled enc-amf submodule not found! Please fetch submodules. enc-amf plugin disabled. RSSDK not found, Realsense camera plugin disabled obs-vst submodule not found! Please fetch/update submodules. obs-vst plugin disabled. Libfdk not found - obs-libfdk plugin disabled Found FFmpeg: D:/OBS_STUDIO/dependencies2015/win32/bin/avcodec.lib (found version "57.108.100") found components: avcodec avfilter avdevice avutil swscale avformat swresample Found FFmpeg: D:/OBS_STUDIO/dependencies2015/win32/bin/avcodec.lib (found version "57.108.100") found components: avcodec avutil avformat Configuring incomplete, errors occurred! See also "D:/OBS_STUDIO/ProCmake/buildOBS/CMakeFiles/CMakeOutput.log". See also "D:/OBS_STUDIO/ProCmake/buildOBS/CMakeFiles/CMakeError.log".

初学ffmpeg,打开rtsp流后,avformat_find_stream_info函数执行出现问题,应该如何解决啊?

## 执行程序后控制台输出如下: ![图片说明](https://img-ask.csdn.net/upload/201909/06/1567751699_39848.jpg) ![图片说明](https://img-ask.csdn.net/upload/201909/06/1567751714_102369.jpg) ## 程序代码如下: ``` int main() { AVFormatContext *input_ctx = NULL; int video_stream, ret; AVStream *video = NULL; AVCodecContext *decoder_ctx = NULL; AVCodec *decoder = NULL; AVPacket packet; enum AVHWDeviceType type; int i; const char *name = "d3d11va"; type = av_hwdevice_find_type_by_name(name); if (type == AV_HWDEVICE_TYPE_NONE) { fprintf(stderr, "Device type %s is not supported.\n", name); return -1; } // 打开输入文件 const char *url = "rtsp://root:vbox_12306@10.108.6.19:3097/55Ogq4fZ14875442466"; input_ctx = avformat_alloc_context(); AVDictionary* options = NULL; av_dict_set(&options, "rtsp_transport", "tcp", 0);//采用tcp传输(默认udp) av_dict_set(&options, "stimeout", "2000000", 0); av_dict_set(&options, "probesize", "5000000000", 0); av_dict_set(&options, "analyzeduration", "100000000", 0); if (avformat_open_input(&input_ctx,url, NULL, &options) != 0) { fprintf(stderr, "Cannot open input file '%s'\n", url); return -1; } if (avformat_find_stream_info(input_ctx, NULL) < 0) { fprintf(stderr, "Cannot find input stream information.\n"); return -1; } ``` ## ## rtsp流来自服务器上的一个网络摄像头,没有声音,只有图像。 ## 希望大神能够帮忙看一下应该如何解决啊

C# ffmpeg 调用avformat_open_input报错

如题,相关代码如下: string str = "rtsp://192.168.1.108:554/Streaming/Channels/101?transportmode=unicast&profile=Profile_1"; var format_ctx = ffmpeg.avformat_alloc_context(); int ret = ffmpeg.avformat_open_input(&format_ctx, str, null, null); if (ret != 0) { Console.WriteLine("fail to open url:" + url + "return value:" + ret); return -1; } return 0; 结果报错![图片说明](https://img-ask.csdn.net/upload/202002/11/1581409527_776962.png) 有点懵逼,不知道错误出在哪里。。。

x264 中x264_encoder_encode函数崩溃

最近在做录屏项目时用到了H264编码,感觉很崩溃,就在网上down了段代码,调试的时候不动屏幕还好,还可以一直编码,一动屏幕(比如最大化,最小化一个窗口,或打开网页等操作)程序就崩溃了, 错误位置:(x264_encoder_encode(h, &nal, &nnal, &pic, &pic_out) < 0) 显示的错误: 0x00000000 处有未经处理的异常: 0xC0000005: Access violation nal这个变量为NULL。 下面是我初始化的代码: bool x264enc::InitX264Encoder(unsigned short usWidth,unsigned short usHeight,int nKeyFrameInterval,int nFrameRate,int nQuality) { x264_param_t param; x264_param_default(&param); param.i_width = usWidth; param.i_height = usHeight; param.rc.i_qp_min=20; param.rc.i_qp_max=31; param.rc.f_qcompress=0.5f; param.rc.i_qp_constant=0; param.rc.i_rc_method = X264_RC_CRF; param.rc.f_rf_constant = 8.5f; param.i_log_level = X264_LOG_NONE; h = x264_encoder_open(&param); if(h == NULL) { return false; } m_usWidth=usWidth; m_usHeight=usHeight; return true; } 下面是我编码时候的代码: bool x264enc::X264Encode(unsigned char* pInFrame,const int& nInLen,unsigned char* pOutFrame,int& nOutLen,bool& bKeyFrame) { x264_nal_t *nal; x264_picture_t pic_out; x264_picture_t pic; int nnal = 0; if(pInFrame) { pic.img.i_csp = X264_CSP_I420; pic.img.i_plane = 3; pic.img.plane[0] = pInFrame; pic.img.plane[1] = pInFrame + m_usWidth*m_usHeight; pic.img.plane[2] = pic.img.plane[1] + (m_usWidth*m_usHeight / 4); pic.img.i_stride[0] = m_usWidth; pic.img.i_stride[1] = m_usWidth / 2; pic.img.i_stride[2] = m_usWidth / 2; pic.i_type = X264_TYPE_AUTO; if(x264_encoder_encode(h, &nal, &nnal, &pic, &pic_out) < 0) { return false; } } else { if(x264_encoder_encode(h, &nal, &nnal, NULL, &pic_out) < 0) { return false; } } if(nnal <= 0) return false; nOutLen = encode_nals(pOutFrame,nOutLen, nal, nnal); if(nOutLen < 0) { return false; } if(pic_out.i_type == X264_TYPE_IDR) { bKeyFrame = true; } else { bKeyFrame = false; } return true; } 我在网上看大家写的都差不多,搞不懂是哪里错了,求大神指点,有没有x264的开发文档啊,里面的参数都不知道是什么意思,英文的也行。

求大神帮忙看下代码 关于FFMPEG 新老版本产生的 声明被否决的问题 如何修改 谢谢了。

#include "stdafx.h" #include "FFMPEG_MP4.h" int ptsInc = 0; int waitkey = 1;; int STREAM_FRAME_RATE = 25; AVFormatContext* m_pOc; int vi; bool isIdrFrame2(uint8_t* buf, int len){ switch (buf[0] & 0x1f){ case 7: // SPS return true; case 8: // PPS return true; case 5: return true; case 1: return false; default: return false; break; } return false; } bool isIdrFrame1(uint8_t* buf, int size){ //主要是解析idr前面的sps pps // static bool found = false; // if(found){ return true;} int last = 0; for (int i = 2; i <= size; ++i){ if (i == size) { if (last) { bool ret = isIdrFrame2(buf + last, i - last); if (ret) { //found = true; return true; } } } else if (buf[i - 2] == 0x00 && buf[i - 1] == 0x00 && buf[i] == 0x01) { if (last) { int size = i - last - 3; if (buf[i - 3]) ++size; bool ret = isIdrFrame2(buf + last, size); if (ret) { //found = true; return true; } } last = i + 1; } } return false; } /* Add an output stream */ AVStream *add_stream(AVFormatContext *oc, AVCodec **codec, enum AVCodecID codec_id) { AVCodecContext *c; AVStream *st; /* find the encoder */ *codec = avcodec_find_encoder(codec_id); if (!*codec) { printf("could not find encoder for '%s' \n", avcodec_get_name(codec_id)); exit(1); } st = avformat_new_stream(oc, *codec); if (!st) { printf("could not allocate stream \n"); exit(1); } st->id = oc->nb_streams - 1; c = avcodec_alloc_context3(NULL); if (c == NULL){ printf("Could not allocate AVCodecContext\n"); } avcodec_parameters_to_context(c, st->codecpar); vi = st->index; switch ((*codec)->type) { case AVMEDIA_TYPE_AUDIO: printf("AVMEDIA_TYPE_AUDIO\n"); c->sample_fmt = (*codec)->sample_fmts ? (*codec)->sample_fmts[0] : AV_SAMPLE_FMT_FLTP; c->bit_rate = 64000; c->sample_rate = 44100; c->channels = 2; break; case AVMEDIA_TYPE_VIDEO: printf("AVMEDIA_TYPE_VIDEO\n"); c->codec_id = AV_CODEC_ID_H264; c->bit_rate = 0; c->width = 1080; c->height = 720; c->time_base.den = 50; c->time_base.num = 1; c->gop_size = 1; c->pix_fmt = AV_PIX_FMT_YUV420P; if (c->codec_id == AV_CODEC_ID_MPEG2VIDEO) { c->max_b_frames = 2; } if (c->codec_id == AV_CODEC_ID_MPEG1VIDEO) { c->mb_decision = 2; } break; default: break; } if (oc->oformat->flags & AVFMT_GLOBALHEADER) { c->flags |= AV_CODEC_FLAG_GLOBAL_HEADER; } return st; } void open_video(AVFormatContext *oc, AVCodec *codec, AVStream *st) { int ret; AVCodecContext *c; c = avcodec_alloc_context3(NULL); if (c == NULL){ printf("Could not allocate AVCodecContext\n"); } avcodec_parameters_to_context(c, st->codecpar); /* open the codec */ ret = avcodec_open2(c, codec, NULL); if (ret < 0) { printf("could not open video codec"); //exit(1); } } //testing purpose of indicate the file name and file path //int CreateMp4(const char* filename) void CreateMP4() { int ret; // 成功返回0,失败返回1 const char* pszFileName = "../1.mp4"; AVOutputFormat *fmt; AVCodec *video_codec; AVStream *m_pVideoSt; av_register_all(); avformat_alloc_output_context2(&m_pOc, NULL, NULL, pszFileName); if (!m_pOc) { printf("Could not deduce output format from file extension: using MPEG. \n"); avformat_alloc_output_context2(&m_pOc, NULL, "mpeg", pszFileName); } if (!m_pOc) { //return 1; } fmt = m_pOc->oformat; if (fmt->video_codec != AV_CODEC_ID_NONE) { printf("1111111111111111add_stream\n"); m_pVideoSt = add_stream(m_pOc, &video_codec, fmt->video_codec); } if (m_pVideoSt) { printf("1111111111111111open_video\n"); open_video(m_pOc, video_codec, m_pVideoSt); } printf("==========Output Information==========\n"); av_dump_format(m_pOc, 0, pszFileName, 1); printf("======================================\n"); /* open the output file, if needed */ if (!(fmt->flags & AVFMT_NOFILE)) { ret = avio_open(&m_pOc->pb, pszFileName, AVIO_FLAG_WRITE); if (ret < 0) { printf("could not open %s\n", pszFileName); //return 1; } } /* Write the stream header, if any */ ret = avformat_write_header(m_pOc, NULL); if (ret < 0) { printf("Error occurred when opening output file"); //return 1; } //return 0; } /* write h264 data to mp4 file * 创建mp4文件返回2;写入数据帧返回0 */ void WriteVideo(void* data, int nLen) { int ret; if (0 > vi) { printf("vi less than 0\n"); //return -1; } AVStream *pst = m_pOc->streams[vi]; //printf("vi=====%d\n",vi); // Init packet AVPacket pkt; // caculate pst AVCodecContext *c; c = avcodec_alloc_context3(NULL); if (c == NULL){ printf("Could not allocate AVCodecContext\n"); } avcodec_parameters_to_context(c, pst->codecpar); av_init_packet(&pkt); int isI = isIdrFrame1((uint8_t*)data, nLen); printf("isIFrame is %d\n", isI); pkt.flags |= isI ? AV_PKT_FLAG_KEY : 0; pkt.stream_index = pst->index; pkt.data = (uint8_t*)data; pkt.size = nLen; // Wait for key frame if (waitkey){ if (0 == (pkt.flags & AV_PKT_FLAG_KEY)){ return; } else waitkey = 0; } pkt.pts = (ptsInc++) * (90000 / STREAM_FRAME_RATE); pkt.pts = av_rescale_q((ptsInc++) * 2, pst->codec->time_base, pst->time_base); //pkt.dts = (ptsInc++) * (90000/STREAM_FRAME_RATE); // pkt.pts=av_rescale_q_rnd(pkt.pts, pst->time_base,pst->time_base,(AVRounding)(AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX)); pkt.dts = av_rescale_q_rnd(pkt.dts, pst->time_base, pst->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)); pkt.duration = av_rescale_q(pkt.duration, pst->time_base, pst->time_base); pkt.pos = -1; printf("pkt.size=%d\n", pkt.size); ret = av_interleaved_write_frame(m_pOc, &pkt); if (ret < 0) { printf("cannot write frame"); } } void CloseMp4() { waitkey = -1; vi = -1; if (m_pOc) av_write_trailer(m_pOc); if (m_pOc && !(m_pOc->oformat->flags & AVFMT_NOFILE)) avio_close(m_pOc->pb); if (m_pOc) { avformat_free_context(m_pOc); m_pOc = NULL; } } 一共是报了两个声明被否决 一个是 'av_register_all': 被声明为已否决 另一个是 'AVStream::codec': 被声明为已否决。 这个代码是从https://www.jianshu.com/p/e62dc6928941 照搬的,我这边的FFMPEG的库是4.1版本 因为小弟才刚开始学习 不是很清楚他的实现思路 更不知道 如何解决这两个声明被否决的问题, 请问有大神能够指导一下吗? 'AVStream::codec': 被声明为已否决:指向的是这一句:pkt.pts = av_rescale_q((ptsInc++) * 2, pst->codec->time_base, pst->time_base);

FFmpeg解码 多线程 句柄无法完全释放

用CreateThread创建线程并在线程内使用ffmepg API解码,线程结束并且CloseHandle后,从任务管理器发现相应的exe句柄比创建线程之前增加,并没有完全释放,请问是为什么? ffmpeg解码过程如下:av_register_all ->avformat_open_input -> avformat_find_stream_info -> avcodec_find_decoder -> avcodec_open2 (中间从文件读帧操作省略)->avcodec_close -> avformat_close_input 。 如果把avcodec_open2 这个函数注释掉,任务管理器观察相应的exe句柄不会增加; 如果不用CreateThread,用_beginthreadex,句柄仍然增加; 如果不创建子线程,直接运行上述解码流程,句柄不会增加。

定量遥感中文版 梁顺林著 范闻捷译

这是梁顺林的定量遥感的中文版,由范闻捷等翻译的,是电子版PDF,解决了大家看英文费时费事的问题,希望大家下载看看,一定会有帮助的

Java 最常见的 200+ 面试题:面试必备

这份面试清单是从我 2015 年做了 TeamLeader 之后开始收集的,一方面是给公司招聘用,另一方面是想用它来挖掘在 Java 技术栈中,还有那些知识点是我不知道的,我想找到这些技术盲点,然后修复它,以此来提高自己的技术水平。虽然我是从 2009 年就开始参加编程工作了,但我依旧觉得自己现在要学的东西很多,并且学习这些知识,让我很有成就感和满足感,那所以何乐而不为呢? 说回面试的事,这份面试...

机器学习初学者必会的案例精讲

通过六个实际的编码项目,带领同学入门人工智能。这些项目涉及机器学习(回归,分类,聚类),深度学习(神经网络),底层数学算法,Weka数据挖掘,利用Git开源项目实战等。

远程工具,免费

远程工具,免费

java jdk 8 帮助文档 中文 文档 chm 谷歌翻译

JDK1.8 API 中文谷歌翻译版 java帮助文档 JDK API java 帮助文档 谷歌翻译 JDK1.8 API 中文 谷歌翻译版 java帮助文档 Java最新帮助文档 本帮助文档是使用谷

csma/ca和csma/cd的matlab仿真源代码带有详细的注释

csma/ca和csma/cd的matlab仿真源代码带有详细的注释,载波侦听,随意设置节点数,带有炫酷的图形展示效果。

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

软件测试入门、SQL、性能测试、测试管理工具

软件测试2小时入门,让您快速了解软件测试基本知识,有系统的了解; SQL一小时,让您快速理解和掌握SQL基本语法 jmeter性能测试 ,让您快速了解主流来源性能测试工具jmeter 测试管理工具-禅道,让您快速学会禅道的使用,学会测试项目、用例、缺陷的管理、

pokemmo的资源

pokemmo必须的4个rom 分别为绿宝石 火红 心金 黑白 还有汉化补丁 资源不错哦 记得下载

三个项目玩转深度学习(附1G源码)

从事大数据与人工智能开发与实践约十年,钱老师亲自见证了大数据行业的发展与人工智能的从冷到热。事实证明,计算机技术的发展,算力突破,海量数据,机器人技术等,开启了第四次工业革命的序章。深度学习图像分类一直是人工智能的经典任务,是智慧零售、安防、无人驾驶等机器视觉应用领域的核心技术之一,掌握图像分类技术是机器视觉学习的重中之重。针对现有线上学习的特点与实际需求,我们开发了人工智能案例实战系列课程。打造:以项目案例实践为驱动的课程学习方式,覆盖了智能零售,智慧交通等常见领域,通过基础学习、项目案例实践、社群答疑,三维立体的方式,打造最好的学习效果。

无线通信中的智能天线:IS-95和第3代CDMA应用_.pdf

无线通信中的智能天线:IS-95和第3代CDMA应用_.pdf

设计模式(JAVA语言实现)--20种设计模式附带源码

课程亮点: 课程培训详细的笔记以及实例代码,让学员开始掌握设计模式知识点 课程内容: 工厂模式、桥接模式、组合模式、装饰器模式、外观模式、享元模式、原型模型、代理模式、单例模式、适配器模式 策略模式、模板方法模式、观察者模式、迭代器模式、责任链模式、命令模式、备忘录模式、状态模式、访问者模式 课程特色: 笔记设计模式,用笔记串连所有知识点,让学员从一点一滴积累,学习过程无压力 笔记标题采用关键字标识法,帮助学员更加容易记住知识点 笔记以超链接形式让知识点关联起来,形式知识体系 采用先概念后实例再应用方式,知识点深入浅出 提供授课内容笔记作为课后复习以及工作备查工具 部分图表(电脑PC端查看):

Java8零基础入门视频教程

这门课程基于主流的java8平台,由浅入深的详细讲解了java SE的开发技术,可以使java方向的入门学员,快速扎实的掌握java开发技术!

玩转Linux:常用命令实例指南

人工智能、物联网、大数据时代,Linux正有着一统天下的趋势,几乎每个程序员岗位,都要求掌握Linux。本课程零基础也能轻松入门。 本课程以简洁易懂的语言手把手教你系统掌握日常所需的Linux知识,每个知识点都会配合案例实战让你融汇贯通。课程通俗易懂,简洁流畅,适合0基础以及对Linux掌握不熟练的人学习; 【限时福利】 1)购课后按提示添加小助手,进答疑群,还可获得价值300元的编程大礼包! 2)本月购买此套餐加入老师答疑交流群,可参加老师的免费分享活动,学习最新技术项目经验。 --------------------------------------------------------------- 29元=掌握Linux必修知识+社群答疑+讲师社群分享会+700元编程礼包。 &nbsp;

极简JAVA学习营第四期(报名以后加助教微信:eduxy-1)

想学好JAVA必须要报两万的培训班吗? Java大神勿入 如果你: 零基础想学JAVA却不知道从何入手 看了一堆书和视频却还是连JAVA的环境都搭建不起来 囊中羞涩面对两万起的JAVA培训班不忍直视 在职没有每天大块的时间专门学习JAVA 那么恭喜你找到组织了,在这里有: 1. 一群志同道合立志学好JAVA的同学一起学习讨论JAVA 2. 灵活机动的学习时间完成特定学习任务+每日编程实战练习 3. 热心助人的助教和讲师及时帮你解决问题,不按时完成作业小心助教老师的家访哦 上一张图看看前辈的感悟: &nbsp; &nbsp; 大家一定迫不及待想知道什么是极简JAVA学习营了吧,下面就来给大家说道说道: 什么是极简JAVA学习营? 1. 针对Java小白或者初级Java学习者; 2. 利用9天时间,每天1个小时时间; 3.通过 每日作业 / 组队PK / 助教答疑 / 实战编程 / 项目答辩 / 社群讨论 / 趣味知识抢答等方式让学员爱上学习编程 , 最终实现能独立开发一个基于控制台的‘库存管理系统’ 的学习模式 极简JAVA学习营是怎么学习的? &nbsp; 如何报名? 只要购买了极简JAVA一:JAVA入门就算报名成功! &nbsp;本期为第四期极简JAVA学习营,我们来看看往期学员的学习状态: 作业看这里~ &nbsp; 助教的作业报告是不是很专业 不交作业打屁屁 助教答疑是不是很用心 &nbsp; 有奖抢答大家玩的很嗨啊 &nbsp; &nbsp; 项目答辩终于开始啦 &nbsp; 优秀者的获奖感言 &nbsp; 这是答辩项目的效果 &nbsp; &nbsp; 这么细致的服务,这么好的氛围,这样的学习效果,需要多少钱呢? 不要1999,不要199,不要99,只要9.9 是的你没听错,只要9.9以上所有就都属于你了 如果你: 1、&nbsp;想学JAVA没有基础 2、&nbsp;想学JAVA没有整块的时间 3、&nbsp;想学JAVA没有足够的预算 还等什么?赶紧报名吧,抓紧抢位,本期只招300人,错过只有等时间待定的下一期了 &nbsp; 报名请加小助手微信:eduxy-1 &nbsp; &nbsp;

Python数据清洗实战入门

本次课程主要以真实的电商数据为基础,通过Python详细的介绍了数据分析中的数据清洗阶段各种技巧和方法。

董付国老师Python全栈学习优惠套餐

购买套餐的朋友可以关注微信公众号“Python小屋”,上传付款截图,然后领取董老师任意图书1本。

linux下利用/proc进行进程树的打印

在linux下利用c语言实现的进程树的打印,主要通过/proc下的目录中的进程文件,获取status中的进程信息内容,然后利用递归实现进程树的打印

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

HoloLens2开发入门教程

本课程为HoloLens2开发入门教程,讲解部署开发环境,安装VS2019,Unity版本,Windows SDK,创建Unity项目,讲解如何使用MRTK,编辑器模拟手势交互,打包VS工程并编译部署应用到HoloLens上等。

150讲轻松搞定Python网络爬虫

【为什么学爬虫?】 &nbsp; &nbsp; &nbsp; &nbsp;1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到! &nbsp; &nbsp; &nbsp; &nbsp;2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是: 网络请求:模拟浏览器的行为从网上抓取数据。 数据解析:将请求下来的数据进行过滤,提取我们想要的数据。 数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。 那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是: 爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。 Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。 通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。 &nbsp; 从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求! 【课程服务】 专属付费社群+每周三讨论会+1v1答疑

MySQL 8.0.19安装教程(windows 64位)

话不多说直接开干 目录 1-先去官网下载点击的MySQL的下载​ 2-配置初始化的my.ini文件的文件 3-初始化MySQL 4-安装MySQL服务 + 启动MySQL 服务 5-连接MySQL + 修改密码 先去官网下载点击的MySQL的下载 下载完成后解压 解压完是这个样子 配置初始化的my.ini文件的文件 ...

Python数据挖掘简易入门

&nbsp; &nbsp; &nbsp; &nbsp; 本课程为Python数据挖掘方向的入门课程,课程主要以真实数据为基础,详细介绍数据挖掘入门的流程和使用Python实现pandas与numpy在数据挖掘方向的运用,并深入学习如何运用scikit-learn调用常用的数据挖掘算法解决数据挖掘问题,为进一步深入学习数据挖掘打下扎实的基础。

深度学习原理+项目实战+算法详解+主流框架(套餐)

深度学习系列课程从深度学习基础知识点开始讲解一步步进入神经网络的世界再到卷积和递归神经网络,详解各大经典网络架构。实战部分选择当下最火爆深度学习框架PyTorch与Tensorflow/Keras,全程实战演示框架核心使用与建模方法。项目实战部分选择计算机视觉与自然语言处理领域经典项目,从零开始详解算法原理,debug模式逐行代码解读。适合准备就业和转行的同学们加入学习! 建议按照下列课程顺序来进行学习 (1)掌握深度学习必备经典网络架构 (2)深度框架实战方法 (3)计算机视觉与自然语言处理项目实战。(按照课程排列顺序即可)

网络工程师小白入门--【思科CCNA、华为HCNA等网络工程师认证】

本课程适合CCNA或HCNA网络小白同志,高手请绕道,可以直接学习进价课程。通过本预科课程的学习,为学习网络工程师、思科CCNA、华为HCNA这些认证打下坚实的基础! 重要!思科认证2020年2月24日起,已启用新版认证和考试,包括题库都会更新,由于疫情原因,请关注官网和本地考点信息。题库网络上很容易下载到。

Ubuntu18.04安装教程

Ubuntu18.04.1安装一、准备工作1.下载Ubuntu18.04.1 LTS2.制作U盘启动盘3.准备 Ubuntu18.04.1 的硬盘空间二、安装Ubuntu18.04.1三、安装后的一些工作1.安装输入法2.更换软件源四、双系统如何卸载Ubuntu18.04.1新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列...

sql语句 异常 Err] 1064 - You have an error in your SQL syntax; check the manual that corresponds to your

在我们开发的工程中,有时候会报 [Err] 1064 - You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near ------ 这种异常 不用多想,肯定是我们的sql语句出现问题,下面...

西南交通大学新秀杯数学建模试题

题目比较难,如果符合大家的口味欢迎大家下载哈,提高你的思维想象能力

Windows版YOLOv4目标检测实战:训练自己的数据集

课程演示环境:Windows10; cuda 10.2; cudnn7.6.5; Python3.7; VisualStudio2019; OpenCV3.4 需要学习ubuntu系统上YOLOv4的同学请前往:《YOLOv4目标检测实战:训练自己的数据集》 课程链接:https://edu.csdn.net/course/detail/28745 YOLOv4来了!速度和精度双提升! 与 YOLOv3 相比,新版本的 AP (精度)和 FPS (每秒帧率)分别提高了 10% 和 12%。 YOLO系列是基于深度学习的端到端实时目标检测方法。本课程将手把手地教大家使用labelImg标注和使用YOLOv4训练自己的数据集。课程实战分为两个项目:单目标检测(足球目标检测)和多目标检测(足球和梅西同时检测)。 本课程的YOLOv4使用AlexyAB/darknet,在Windows系统上做项目演示。包括:安装软件环境、安装YOLOv4、标注自己的数据集、整理自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型、性能统计(mAP计算)和先验框聚类分析。还将介绍改善YOLOv4目标检测性能的技巧。 除本课程《Windows版YOLOv4目标检测实战:训练自己的数据集》外,本人将推出有关YOLOv4目标检测的系列课程。请持续关注该系列的其它视频课程,包括: 《Windows版YOLOv4目标检测实战:人脸口罩佩戴检测》 《Windows版YOLOv4目标检测实战:中国交通标志识别》 《Windows版YOLOv4目标检测:原理与源码解析》

Spring Boot -01- 快速入门篇(图文教程)

Spring Boot -01- 快速入门篇 今天开始不断整理 Spring Boot 2.0 版本学习笔记,大家可以在博客看到我的笔记,然后大家想看视频课程也可以到【慕课网】手机 app,去找【Spring Boot 2.0 深度实践】的课程,令人开心的是,课程完全免费! 什么是 Spring Boot? Spring Boot 是由 Pivotal 团队提供的全新框架。Spring Boot...

相关热词 c#框体中的退出函数 c# 按钮透明背景 c# idl 混编出错 c#在位置0处没有任何行 c# 循环给数组插入数据 c# 多线程死锁的例子 c# 钉钉读取员工排班 c# label 不显示 c#裁剪影像 c#工作进程更新ui
立即提问