ffmpeg源码中,函数av_muxer_iterate中的muxer_list变量在哪里定义的?

我下载ffmpeg 4.2 源码,发现av_muxer_iterate和av_demuxer_iterate等函数中都使用到两个变量muxer_list和demuxer_list, 但是却找不到这两个变量在哪里定义的,全局搜索也搜索不到.

qq_41912238
qq_41912238 老哥,你问题解决了吗,这两个函数应该是在libavformat/muxer_list.c里面,但是我官网下载的源码根本没有这个文件,头疼。。。
5 个月之前 回复

2个回答

双击跟踪一般都可以查到吧。
实在不行,全工程进行查找。。。

zhlf117
zhlf117 全工程查也找不到
10 个月之前 回复

调用configure的时候自动生成的。

生成的函数是configure脚本文件中的 print_enabled_components 函数,可以自己查一下

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
ffmpeg4中的新api ,av_guess_format()返回NULL

我需要使用ffmpeg对视频进行h264编码。而在新版本的ffmpeg4中,更新了av_guess_format()函数,其中用到av_muxer_iterate(&i)来分配AVOutputFormat的地址。这个函数里面需要用到#include "libavformat/muxer_list.c"文件里的结构体muxer_list。但是我在官网下载的源码中根本找不到这个文件,导致av_guss_format()运行错误。 请问怎么获取muxer_list.c 这个文件?或者其他的解决办法?

在qt中调用ffmpeg av_register_all函数程序会异常中止

在qt中调用ffmpeg av_register_all函数程序会异常中止,但是并不报错

ffmpeg的avcodec_find_decoder(AV_CODEC_ID_BMP)返回空是怎么回事呢?

if (!avcodec_find_decoder(AV_CODEC_ID_BMP)) { exit(__LINE__); }

ffmpeg 硬编码时avcodec_encode_video2返回错误码-11(Resource temporarily unavailable)

用ffmpeg将bmp文件序列编码为h264,使用软编码器AV_CODEC_ID_H264时 程序可以正常运行,换成硬编码器h264_nvenc后,程序有时可以正常运行,但有时会报错,错误现象为: 编码生成的h264文件大小为0KB,avcodec_encode_video2()函数返回错误码-11,使用av_strerror显示错误码映射为“Resource temporarily unavailable”。 换成新的API(avcodec_send_frame和avcodec_receive_packet)后,已经返回-11。程序如下: ``` #include<stdio.h> #include<iostream> #include<afx.h> using namespace std; extern"C" { #include <libavcodec\avcodec.h> #include <libavformat\avformat.h> #include <libswscale\swscale.h> #include <libavutil\pixfmt.h> #include <libavutil\imgutils.h> #include <libavutil/opt.h> #include "libavutil/time.h" } #define bmpImagePath "F:/laboratory/holiday/bmp2H264/image_bmp1/%03d.bmp" //bmp图像路径 #define H264FilePath "F:/laboratory/holiday/bmp2H264/h264/text.h264" //H264文件输出路径 const int image_number = 100; //bmp图片数量 int main() { CFile file[image_number + 1000]; BYTE *szTxt[image_number + 1000]; int nWidth = 0; int nHeight = 0; int nDataLen = 0; int nLen; CString csFileName; for (int fileI = 1; fileI <= image_number; fileI++) { csFileName.Format(bmpImagePath, fileI); file[fileI - 1].Open(csFileName, CFile::modeRead | CFile::typeBinary); nLen = file[fileI - 1].GetLength(); szTxt[fileI - 1] = new BYTE[nLen]; file[fileI - 1].Read(szTxt[fileI - 1], nLen); file[fileI - 1].Close(); BITMAPFILEHEADER bmpFHeader; BITMAPINFOHEADER bmpIHeader; memcpy(&bmpFHeader, szTxt[fileI - 1], sizeof(BITMAPFILEHEADER)); int nHeadLen = bmpFHeader.bfOffBits - sizeof(BITMAPFILEHEADER); memcpy(&bmpIHeader, szTxt[fileI - 1] + sizeof(BITMAPFILEHEADER), nHeadLen); nWidth = bmpIHeader.biWidth; nHeight = bmpIHeader.biHeight; szTxt[fileI - 1] += bmpFHeader.bfOffBits; nDataLen = nLen - bmpFHeader.bfOffBits; cout << "fileI:" << fileI << endl; } av_register_all(); avcodec_register_all(); AVFrame *m_pRGBFrame = new AVFrame[1]; //RGB帧数据 AVFrame *m_pYUVFrame = new AVFrame[1];; //YUV帧数据 AVCodecContext *c = NULL; //AVCodecContext *in_c = NULL; AVCodec *pCodecH264 = NULL; //编码器 uint8_t * yuv_buff = NULL;// //查找h264编码器 //pCodecH264 = avcodec_find_encoder(AV_CODEC_ID_H264); //软编码器 pCodecH264 = avcodec_find_encoder_by_name("h264_nvenc"); //硬编码器 if (!pCodecH264) { fprintf(stderr, "h264 codec not found\n"); exit(1); } c = avcodec_alloc_context3(pCodecH264); if (!c) { throw exception("avcodec_alloc_context3 failed!"); } c->bit_rate = 3000000;// put sample parameters //c->bit_rate = 2500000;// put sample parameters c->width = nWidth; c->height = nHeight; AVRational rate; rate.num = 1; rate.den = 25; c->time_base = rate;//(AVRational){1,25}; c->gop_size = 10; // emit one intra frame every ten frames c->max_b_frames = 1; c->thread_count = 1; c->pix_fmt = AV_PIX_FMT_YUV420P;//PIX_FMT_RGB24; if (avcodec_open2(c, pCodecH264, NULL)<0) //打开编码器 TRACE("不能打开编码库"); int size = c->width * c->height; yuv_buff = (uint8_t *)malloc((size * 3) / 2); // size for YUV 420 uint8_t * rgb_buff = new uint8_t[nDataLen]; //将rgb图像数据填充rgb帧 //图象编码 //int outbuf_size = 100000000; int outbuf_size = nWidth * nHeight * 3; uint8_t * outbuf = (uint8_t*)malloc(outbuf_size); int u_size = 0; FILE *f = NULL; char * filename = H264FilePath; f = fopen(filename, "wb"); if (!f) { TRACE("could not open %s\n", filename); exit(1); } //初始化SwsContext SwsContext * scxt = sws_getContext(c->width, c->height, AV_PIX_FMT_BGR24, c->width, c->height, AV_PIX_FMT_YUV420P, SWS_POINT, NULL, NULL, NULL); AVPacket avpkt; //AVFrame *pTFrame=new AVFrame int num = 0; long long int vpts = 0; for (int i = 0; i< image_number; ++i) { int index = i; memcpy(rgb_buff, szTxt[index], nDataLen); avpicture_fill((AVPicture*)m_pRGBFrame, (uint8_t*)rgb_buff, AV_PIX_FMT_RGB24, nWidth, nHeight); //将YUV buffer 填充YUV Frame avpicture_fill((AVPicture*)m_pYUVFrame, (uint8_t*)yuv_buff, AV_PIX_FMT_YUV420P, nWidth, nHeight); // 翻转RGB图像 m_pRGBFrame->data[0] += m_pRGBFrame->linesize[0] * (nHeight - 1); m_pRGBFrame->linesize[0] *= -1; m_pRGBFrame->data[1] += m_pRGBFrame->linesize[1] * (nHeight / 2 - 1); m_pRGBFrame->linesize[1] *= -1; m_pRGBFrame->data[2] += m_pRGBFrame->linesize[2] * (nHeight / 2 - 1); m_pRGBFrame->linesize[2] *= -1; //将RGB转化为YUV sws_scale(scxt, m_pRGBFrame->data, m_pRGBFrame->linesize, 0, c->height, m_pYUVFrame->data, m_pYUVFrame->linesize); int got_packet_ptr = 0; av_init_packet(&avpkt); avpkt.data = outbuf; avpkt.size = outbuf_size; //m_pYUVFrame->pts = vpts; /*u_size = avcodec_send_frame(c, m_pYUVFrame); if (u_size != 0) { char errorbuf[1024] = { 0 }; av_strerror(u_size, errorbuf, sizeof(errorbuf)); cout << "error number:" << u_size << "avcodec_send_frame error:" << errorbuf << endl; } u_size = avcodec_receive_packet(c, &avpkt); if (u_size != 0) { char errorbuf[1024] = { 0 }; av_strerror(u_size, errorbuf, sizeof(errorbuf)); cout << "error number:"<< u_size << " avcodec_receive_packet error:" << errorbuf << endl; }*/ u_size = avcodec_encode_video2(c, &avpkt, m_pYUVFrame, &got_packet_ptr); if (u_size != 0) { char errorbuf[1024] = { 0 }; av_strerror(u_size, errorbuf, sizeof(errorbuf)); cout << "error number:" << u_size << "avcodec_encode_video2 error:" << errorbuf << endl; } m_pYUVFrame->pts++; //cout << "encode frame" << index + 1 << " successfully!" << endl; cout << "u_size:" << u_size << endl; if (u_size == 0) { cout << "encode frame" << index + 1 << " successfully!" << endl; cout << "*************" << ++num << "************" << endl; fwrite(avpkt.data, 1, avpkt.size, f); } //vpts++; else { avcodec_send_packet(c, &avpkt); } } cout << "nWidth" << nWidth << endl; cout << "nHeight" << nHeight << endl; fclose(f); delete[]m_pRGBFrame; delete[]m_pYUVFrame; delete[]rgb_buff; free(outbuf); free(yuv_buff); avcodec_close(c); av_free(c); //avcodec_free_context(&c); system("pause"); return 0; } ``` 错误结果截图如下: ![图片说明](https://img-ask.csdn.net/upload/202004/19/1587275773_301317.png)

C# ffmpeg 调用avformat_open_input报错

如题,相关代码如下: string str = "rtsp://192.168.1.108:554/Streaming/Channels/101?transportmode=unicast&profile=Profile_1"; var format_ctx = ffmpeg.avformat_alloc_context(); int ret = ffmpeg.avformat_open_input(&format_ctx, str, null, null); if (ret != 0) { Console.WriteLine("fail to open url:" + url + "return value:" + ret); return -1; } return 0; 结果报错![图片说明](https://img-ask.csdn.net/upload/202002/11/1581409527_776962.png) 有点懵逼,不知道错误出在哪里。。。

ffmpeg分离mp4文件中h265流

目前,在linux平台上使用ffmpeg完成mp4的demuxer功能,拿到原始ES流,送入硬件解码器解码. 针对h264,目前ffmpeg通过流过滤器av_bitstream_filter_init("h264_mp4toannexb");可以拿到NALU模块的PSP,PPS等数据。 但是目前针对h265编码格式的流,不知道如何处理,求高人指教? 目前,我想从GPAC源码中mp42ts模块中找解决办法,gpac从mp4中拿到es数据肯定会加NALU信息的,但是代码没怎么读懂!

初学ffmpeg,打开rtsp流后,avformat_find_stream_info函数执行出现问题,应该如何解决啊?

## 执行程序后控制台输出如下: ![图片说明](https://img-ask.csdn.net/upload/201909/06/1567751699_39848.jpg) ![图片说明](https://img-ask.csdn.net/upload/201909/06/1567751714_102369.jpg) ## 程序代码如下: ``` int main() { AVFormatContext *input_ctx = NULL; int video_stream, ret; AVStream *video = NULL; AVCodecContext *decoder_ctx = NULL; AVCodec *decoder = NULL; AVPacket packet; enum AVHWDeviceType type; int i; const char *name = "d3d11va"; type = av_hwdevice_find_type_by_name(name); if (type == AV_HWDEVICE_TYPE_NONE) { fprintf(stderr, "Device type %s is not supported.\n", name); return -1; } // 打开输入文件 const char *url = "rtsp://root:vbox_12306@10.108.6.19:3097/55Ogq4fZ14875442466"; input_ctx = avformat_alloc_context(); AVDictionary* options = NULL; av_dict_set(&options, "rtsp_transport", "tcp", 0);//采用tcp传输(默认udp) av_dict_set(&options, "stimeout", "2000000", 0); av_dict_set(&options, "probesize", "5000000000", 0); av_dict_set(&options, "analyzeduration", "100000000", 0); if (avformat_open_input(&input_ctx,url, NULL, &options) != 0) { fprintf(stderr, "Cannot open input file '%s'\n", url); return -1; } if (avformat_find_stream_info(input_ctx, NULL) < 0) { fprintf(stderr, "Cannot find input stream information.\n"); return -1; } ``` ## ## rtsp流来自服务器上的一个网络摄像头,没有声音,只有图像。 ## 希望大神能够帮忙看一下应该如何解决啊

FFmpeg C++ 的 avcodec_encode_video2 返回 -40

我想通過avcodec_encode_video2 覆蓋packet中的memory來達到刷新我做過特殊渲染的影像,但avcodec_encode_video2 的返回值是不成功-40問題: 我正常撥放輸出都沒問題 就是沒辦法蓋過圖層,是不是哪邊memory寫法不正確呢? 代碼如下: AVOutputFormat* ofmt = NULL; //Input AVFormatContext and Output AVFormatContext AVFormatContext* i_pFormatCtx = NULL, * out_pFormatCtx = NULL; AVCodecContext* pCodecCtx;//視頻解碼器 AVCodecContext* pCodecCtxAudio;//音頻解碼器 AVCodec* pCodec; AVCodec* pCodecAudio; AVPacket packet; string in_filename; string out_filename; int ret, i; int videoindex = -1; int audioindex = -1; int frame_index = 0; int64_t start_time = 0; uint8_t* buffer; AVFrame* pFrame; AVFrame* pFrameRGB; int frameFinished; int frameAudioFinished; int numBytes; AVStream* in_stream, * out_stream; vector<AVPacket> BIGpacket; in_filename = "D:/yolo/data_movie/f1.mp4"; out_filename = "rtmp://localhost:1935/live/home";//怀堤 URLㄗOutput URLㄘ[RTMP] //================ // 註冊: av_register_all(); //================ //Network avformat_network_init(); //======================= //Input if ((ret = avformat_open_input(&i_pFormatCtx, in_filename.c_str(), 0, 0)) < 0) { //printf("Could not open input file."); goto end; } if ((ret = avformat_find_stream_info(i_pFormatCtx, 0)) < 0) { //printf("Failed to retrieve input stream information"); goto end; } for (i = 0; i < i_pFormatCtx->nb_streams; i++) { if (i_pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) { videoindex = i; } if (i_pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_AUDIO) { audioindex = i; } } av_dump_format(i_pFormatCtx, 0, in_filename.c_str(), 0); //Output avformat_alloc_output_context2(&out_pFormatCtx, NULL, "flv", out_filename.c_str()); //RTMP if (!out_pFormatCtx) { //printf("Could not create output context\n"); ret = AVERROR_UNKNOWN; goto end; } ofmt = out_pFormatCtx->oformat; for (i = 0; i < i_pFormatCtx->nb_streams; i++) { //Create output AVStream according to input AVStream AVStream* in_stream = i_pFormatCtx->streams[i]; AVStream* out_stream = avformat_new_stream(out_pFormatCtx, in_stream->codec->codec); if (!out_stream) { AfxMessageBox(L"Failed allocating output stream"); //printf("Failed allocating output stream\n"); ret = AVERROR_UNKNOWN; goto end; } //Copy the settings of AVCodecContext ret = avcodec_copy_context(out_stream->codec, in_stream->codec); if (ret < 0) { //printf("Failed to copy context from input to output stream codec context\n"); goto end; } out_stream->codec->codec_tag = 0; if (out_pFormatCtx->oformat->flags & AVFMT_GLOBALHEADER) out_stream->codec->flags |= AV_CODEC_FLAG_GLOBAL_HEADER; } //====================================================================== // 打开視頻解码器 pCodecCtx = i_pFormatCtx->streams[videoindex]->codec; pCodec = avcodec_find_decoder(pCodecCtx->codec_id); if (avcodec_open2(pCodecCtx, pCodec, 0) < 0) { DbgPrint("Could not open codec"); return; } //====================================================================== // 打开音頻解码器 pCodecCtxAudio= i_pFormatCtx->streams[audioindex]->codec; pCodecAudio= avcodec_find_decoder(pCodecCtxAudio->codec_id); if (avcodec_open2(pCodecCtxAudio, pCodecAudio, 0) < 0) { DbgPrint("Could not open codec"); return; } #if OUTPUT_PCM pFile = fopen("output.pcm", "wb"); #endif** packet = *(AVPacket*)av_malloc(sizeof(AVPacket)); av_init_packet(&packet); //===================================================================== // 破解視頻某些编解码器可能生成的错误帧速率 if (pCodecCtx->time_base.num > 1000 && pCodecCtx->time_base.den == 1) { pCodecCtx->time_base.den = 1000; } // 分配视频帧 pFrame = av_frame_alloc(); // Allocate an AVFrame structure pFrameRGB = av_frame_alloc(); if (pFrameRGB == NULL) return; numBytes = avpicture_get_size(AV_PIX_FMT_RGB24, pCodecCtx->width,pCodecCtx->height);// Determine required buffer size and allocate buffer buffer = (uint8_t*)av_malloc(numBytes * sizeof(uint8_t)); avpicture_fill((AVPicture*)pFrameRGB, buffer, AV_PIX_FMT_RGB24,pCodecCtx->width, pCodecCtx->height);// Assign appropriate parts of buffer to image planes in pFrameRGB long prepts = 0; //Dump Format------------------ av_dump_format(out_pFormatCtx, 0, out_filename.c_str(), 1); //Open output URL if (!(ofmt->flags & AVFMT_NOFILE)) { ret = avio_open(&out_pFormatCtx->pb, out_filename.c_str(), AVIO_FLAG_WRITE); if (ret < 0) { AfxMessageBox(L"Could not open output URL"); //printf("Could not open output URL '%s'", out_filename); goto end; } } //Write file header ret = avformat_write_header(out_pFormatCtx, NULL); if (ret < 0) { //printf("Error occurred when opening output URL\n"); goto end; } start_time = av_gettime(); while (1) { //Get an AVPacket ret = av_read_frame(i_pFormatCtx, &packet); if (ret < 0) { break; } if (G_PAUSE) { break; } /* if (packet.stream_index == audioindex) { //聲音: ret = avcodec_decode_audio4(pCodecCtx, pFrame, &frameAudioFinished,&packet); } */ //Important:Delay if (packet.stream_index == videoindex) { //==================================================================================== //幀解碼器: int a=avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished, &packet);// Decode video frame //ret = avcodec_encode_video2(pCodecCtx, &packet, pFrameRGB, &frameFinished); if (frameFinished) { static struct SwsContext* img_convert_ctx; if (img_convert_ctx == NULL) { int w = pCodecCtx->width; int h = pCodecCtx->height; img_convert_ctx = sws_getContext(w, h, pCodecCtx->pix_fmt, w, h, AV_PIX_FMT_RGB24, 4, NULL, NULL, NULL); if (img_convert_ctx == NULL) { fprintf(stderr, "Cannot initialize the conversion context!\n"); exit(1); } } int ret = sws_scale(img_convert_ctx, pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize); if (ret == 0) { fprintf(stderr, "SWS_Scale failed [%d]!\n", ret); continue; } // Save the frame to disk if (i++ <= 5) { SaveFrame(pFrameRGB, pCodecCtx->width, pCodecCtx->height, i); } CopyDate(pFrameRGB, pCodecCtx->width, pCodecCtx->height, packet.pts - prepts); ret =avcodec_encode_video2(pCodecCtx, &packet, pFrameRGB, &frameFinished); if (ret < 0) { AfxMessageBox(L"Encoding失敗"); } prepts = packet.pts; } //============================================================================================== AVRational time_base = i_pFormatCtx->streams[videoindex]->time_base; AVRational time_base_q = { 1,AV_TIME_BASE }; int64_t pts_time = av_rescale_q(packet.dts, time_base, time_base_q); int64_t now_time = av_gettime() - start_time; if (pts_time > now_time) { av_usleep(pts_time - now_time); } } //Simple Write PTS if (packet.pts == AV_NOPTS_VALUE) { //Write PTS AVRational time_base1 = i_pFormatCtx->streams[videoindex]->time_base; //Duration between 2 frames (us) int64_t calc_duration = (double)AV_TIME_BASE / av_q2d(i_pFormatCtx->streams[videoindex]->r_frame_rate); //Parameters packet.pts = (double)(frame_index * calc_duration) / (double)(av_q2d(time_base1) * AV_TIME_BASE); packet.dts = packet.pts; packet.duration = (double)calc_duration / (double)(av_q2d(time_base1) * AV_TIME_BASE); } in_stream = i_pFormatCtx->streams[packet.stream_index]; out_stream = out_pFormatCtx->streams[packet.stream_index]; /* copy packet */ //Convert PTS/DTS packet.pts = av_rescale_q_rnd(packet.pts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)); packet.dts = av_rescale_q_rnd(packet.dts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)); packet.duration = av_rescale_q(packet.duration, in_stream->time_base, out_stream->time_base); packet.pos = -1; //Print to Screen if (packet.stream_index == videoindex) { //printf("Send %8d video frames to output URL\n", frame_index); frame_index++; //ret = av_interleaved_write_frame(out_pFormatCtx, &packet); } //ret = av_write_frame(ofmt_ctx, &pkt); ret = av_interleaved_write_frame(out_pFormatCtx, &packet); if (ret < 0) { //printf("Error muxing packet\n"); break; } av_free_packet(&packet); } //Write file trailer av_write_trailer(out_pFormatCtx); end: AfxMessageBox(L"Stream is closed"); avformat_close_input(&i_pFormatCtx); /* close output */ if (out_pFormatCtx && !(ofmt->flags & AVFMT_NOFILE)) avio_close(out_pFormatCtx->pb); avformat_free_context(out_pFormatCtx); if (ret < 0 && ret != AVERROR_EOF) { //printf("Error occurred.\n"); return ; } return;

FFmpeg中的avcodec_find_encoder_by_name("libx264")内幕是怎样的呢?

为什么我在win7、vs2015中可以得到一个AVCodec,而在win10、vs2017中却返回NULL呢? 新线索: 在win10、vs2017中,debug模式下此函数返回空,在release模式下不为空;

ffmpeg编码延时命令行参数设置

ffmpeg编码参数设置 av_opt_set(m_c->priv_data, "preset", "superfast", 0); av_opt_set(m_c->priv_data, "tune", "zerolatency", 0); 可以达到减少编码延时的效果,请问如何在命令行中设置相应的参数来达到同样的效果呢?谢谢

高手解释一下,c语言方法嵌套问题

```c #if AV_GCC_VERSION_AT_LEAST(4,3) #define av_alloc_size(...) attribute((alloc_size(__VA_ARGS__))) #else #define av_alloc_size(...) #endif /** Allocate a memory block for an array with av_mallocz(). * The allocated memory will have size size * nmemb bytes. * @param nmemb Number of elements @param size Size of the single element @return Pointer to the allocated block, or NULL if the block cannot be allocated * @see av_mallocz() @see av_malloc_array() */ av_alloc_size(1, 2) static inline void *av_mallocz_array(size_t nmemb, size_t size) { if (!size || nmemb >= INT_MAX / size) return NULL; return av_mallo ``` ```C av_alloc_size(1, 2) static inline void *av_mallocz_array(size_t nmemb, size_t size) { if (!size || nmemb >= INT_MAX / size) return NULL; return av_mallocz(nmemb * size); } ``` allocz(nmemb * size); } 帮我解释一下,C语言的方法嵌套的问题。我是C语言新手,今天看代码突然看到此方法,我有点闹不机密了。有可我描述的有问题,但是这个方法很奇怪,方法声明前头还有方法。到底这个函数有没有返回值?

FFmpeg:avcodec_find_encoder_by_name("libx264")返回空,是怎么回事呢?

FFmpeg编译时的参数:./configure --enable-shared --enable-static --enable-pic --enable-gpl --enable-avresample --enable-sdl --enable-libx264 cmd中使用ffmpeg -encoders ![图片说明](https://img-ask.csdn.net/upload/201912/15/1576374486_153947.jpg) 新线索: 在win7、vs2015中此函数不为空,在win10、vs2017中为空; 在win10、vs2017中的debug模式下,此函数返回空,release模式下不为空;

ffmepg sws_scale函数在处理4K视频时,速度较慢

第一次提问,格式可能不对,请见谅 ``` numBytes = av_image_get_buffer_size(AV_PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height,4); out_buffer_rgb = (uint8_t *)av_malloc(numBytes * sizeof(uint8_t)); av_image_fill_arrays(pFrameRGB->data, pFrameRGB->linesize, out_buffer_rgb, AV_PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height, 4); /* img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_RGB24, SWS_BICUBIC, NULL, NULL, NULL); */ img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_NV12, pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_RGB24, SWS_POINT, NULL, NULL, NULL); int got_picture = 0; while (1) { ret = packet_queue_get(&ps->video_packet_queue, packet, 0); if (ret <= 0) { cout << " video_packet_queue empty" << endl; continue; } int ret = avcodec_send_packet(ps->pvideo_codec_ctx, packet); if (ret < 0 && ret != AVERROR(EAGAIN) && ret != AVERROR_EOF) continue; ret = avcodec_receive_frame(ps->pvideo_codec_ctx, pDecodedFrame); if (ret < 0 && ret != AVERROR_EOF) continue; ret = av_hwframe_transfer_data(pFrame,pDecodedFrame, 0); if (ret < 0) continue; //if (got_picture) { Uint32 pretimer = SDL_GetTicks(); int ret = sws_scale(img_convert_ctx, (uint8_t const *const *)pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize); cout << "sws_scale" << SDL_GetTicks() - pretimer << endl; //glTexSubImage2D(GL_TEXTURE_2D, 0, 0, 0, data->codec_ctx->width, data->codec_ctx->height, GL_RGB, GL_UNSIGNED_BYTE, ...); } av_packet_unref(packet); } ``` 使用上述代码,在处理4K视频时 sws_scale 使用的时间较长,请问如何解决。 类似问题 https://stackoverflow.com/questions/50644157/extremely-slow-ffmpeg-sws-scale-only-on-heavy-duty https://ffmpeg.org/pipermail/libav-user/2015-August/008348.html

关于ffmpeg打开摄像头播放的问题

看了雷神的博客 ``` avdevice_register_all(); AVFormatContext *pFormatCtx = avformat_alloc_context(); AVInputFormat *ifmt=ifmt=av_find_input_format("vfwcap"); avformat_open_input(&pFormatCtx, 0, ifmt,NULL); ``` ![程序运行之后显示](https://img-ask.csdn.net/upload/201808/30/1535633185_812618.png) ![程序输出](https://img-ask.csdn.net/upload/201808/30/1535633209_804867.png) 最终无法打开摄像头,不清楚是什么原因,网上也没类似答案

ffmpeg avcodec_receive_frame 解码效率慢

``` if (pPacket->stream_index == videoIndex) { Uint32 pretimer = SDL_GetTicks(); /* ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, pPacket); if (ret < 0) { printf("解帧失败!\n"); return -1; } */ ret = avcodec_send_packet(pCodecCtx, pPacket); if (ret < 0 && ret != AVERROR(EAGAIN) && ret != AVERROR_EOF) return -1; ret = avcodec_receive_frame(pCodecCtx, pFrame); if (ret < 0 && ret != AVERROR_EOF) { //fprintf(stderr, "Could not open audio codec: %s\n", av_err2str(ret)); continue; } Uint32 a = SDL_GetTicks() - pretimer; cout << "avcodec_receive_frame" << a << endl; } ``` ffmpeg 我是用3.4版本 解码时,使用函数avcodec_send_packet avcodec_receive_frame 获取一帧4K高清视频,30ms左右 使用2.8老版本时 avcodec_decode_video2 获取一帧4K高清视频 10ms左右,请问这种情况如何解决。为什么新版本的解码速度反倒是变慢了。

FFMPE的pkt的PTS如何计算

使用av_read_frame读取的pkt,发现个别pkt.pts是AV_NOPTS_VALUE,求问如何正确的对该值进行计算呢? 目前使用了两种方法,效果都不好: #if 0 if(pkt.pts==AV_NOPTS_VALUE){ ms_waring( "The stream(%d:%s) has no pts,auto set it", type,(type==AVMEDIA_TYPE_VIDEO) ? "video" : "audio" ); AVRational time_base1=in_stream->time_base; int64 calc_duration=(double)AV_TIME_BASE/av_q2d(ifmt_ctx->streams[push_param->flagopt.videostream_index]->r_frame_rate); pkt.pts=(double)(vframe_index*calc_duration)/(double)(av_q2d(time_base1)*AV_TIME_BASE); pkt.dts=pkt.pts; pkt.duration=(double)calc_duration/(double)(av_q2d(time_base1)*AV_TIME_BASE); } #else if(pkt.pts==AV_NOPTS_VALUE){ ms_waring( "The stream(%d:%s) has no pts,auto set it", type,(type==AVMEDIA_TYPE_VIDEO) ? "video" : "audio" ); double m_frameRate = in_stream->r_frame_rate.num /(double)in_stream->r_frame_rate.den; int64_t pts = (int64_t)(AV_TIME_BASE * vframe_index / m_frameRate); pts = av_rescale_q(pts, AV_TIME_BASE_Q, in_stream->time_base); if (in_stream->first_dts > -AV_TIME_BASE){ pts += in_stream->first_dts; } //pkt.pts=pts; } #endif

求大神帮忙看下代码 关于FFMPEG 新老版本产生的 声明被否决的问题 如何修改 谢谢了。

#include "stdafx.h" #include "FFMPEG_MP4.h" int ptsInc = 0; int waitkey = 1;; int STREAM_FRAME_RATE = 25; AVFormatContext* m_pOc; int vi; bool isIdrFrame2(uint8_t* buf, int len){ switch (buf[0] & 0x1f){ case 7: // SPS return true; case 8: // PPS return true; case 5: return true; case 1: return false; default: return false; break; } return false; } bool isIdrFrame1(uint8_t* buf, int size){ //主要是解析idr前面的sps pps // static bool found = false; // if(found){ return true;} int last = 0; for (int i = 2; i <= size; ++i){ if (i == size) { if (last) { bool ret = isIdrFrame2(buf + last, i - last); if (ret) { //found = true; return true; } } } else if (buf[i - 2] == 0x00 && buf[i - 1] == 0x00 && buf[i] == 0x01) { if (last) { int size = i - last - 3; if (buf[i - 3]) ++size; bool ret = isIdrFrame2(buf + last, size); if (ret) { //found = true; return true; } } last = i + 1; } } return false; } /* Add an output stream */ AVStream *add_stream(AVFormatContext *oc, AVCodec **codec, enum AVCodecID codec_id) { AVCodecContext *c; AVStream *st; /* find the encoder */ *codec = avcodec_find_encoder(codec_id); if (!*codec) { printf("could not find encoder for '%s' \n", avcodec_get_name(codec_id)); exit(1); } st = avformat_new_stream(oc, *codec); if (!st) { printf("could not allocate stream \n"); exit(1); } st->id = oc->nb_streams - 1; c = avcodec_alloc_context3(NULL); if (c == NULL){ printf("Could not allocate AVCodecContext\n"); } avcodec_parameters_to_context(c, st->codecpar); vi = st->index; switch ((*codec)->type) { case AVMEDIA_TYPE_AUDIO: printf("AVMEDIA_TYPE_AUDIO\n"); c->sample_fmt = (*codec)->sample_fmts ? (*codec)->sample_fmts[0] : AV_SAMPLE_FMT_FLTP; c->bit_rate = 64000; c->sample_rate = 44100; c->channels = 2; break; case AVMEDIA_TYPE_VIDEO: printf("AVMEDIA_TYPE_VIDEO\n"); c->codec_id = AV_CODEC_ID_H264; c->bit_rate = 0; c->width = 1080; c->height = 720; c->time_base.den = 50; c->time_base.num = 1; c->gop_size = 1; c->pix_fmt = AV_PIX_FMT_YUV420P; if (c->codec_id == AV_CODEC_ID_MPEG2VIDEO) { c->max_b_frames = 2; } if (c->codec_id == AV_CODEC_ID_MPEG1VIDEO) { c->mb_decision = 2; } break; default: break; } if (oc->oformat->flags & AVFMT_GLOBALHEADER) { c->flags |= AV_CODEC_FLAG_GLOBAL_HEADER; } return st; } void open_video(AVFormatContext *oc, AVCodec *codec, AVStream *st) { int ret; AVCodecContext *c; c = avcodec_alloc_context3(NULL); if (c == NULL){ printf("Could not allocate AVCodecContext\n"); } avcodec_parameters_to_context(c, st->codecpar); /* open the codec */ ret = avcodec_open2(c, codec, NULL); if (ret < 0) { printf("could not open video codec"); //exit(1); } } //testing purpose of indicate the file name and file path //int CreateMp4(const char* filename) void CreateMP4() { int ret; // 成功返回0,失败返回1 const char* pszFileName = "../1.mp4"; AVOutputFormat *fmt; AVCodec *video_codec; AVStream *m_pVideoSt; av_register_all(); avformat_alloc_output_context2(&m_pOc, NULL, NULL, pszFileName); if (!m_pOc) { printf("Could not deduce output format from file extension: using MPEG. \n"); avformat_alloc_output_context2(&m_pOc, NULL, "mpeg", pszFileName); } if (!m_pOc) { //return 1; } fmt = m_pOc->oformat; if (fmt->video_codec != AV_CODEC_ID_NONE) { printf("1111111111111111add_stream\n"); m_pVideoSt = add_stream(m_pOc, &video_codec, fmt->video_codec); } if (m_pVideoSt) { printf("1111111111111111open_video\n"); open_video(m_pOc, video_codec, m_pVideoSt); } printf("==========Output Information==========\n"); av_dump_format(m_pOc, 0, pszFileName, 1); printf("======================================\n"); /* open the output file, if needed */ if (!(fmt->flags & AVFMT_NOFILE)) { ret = avio_open(&m_pOc->pb, pszFileName, AVIO_FLAG_WRITE); if (ret < 0) { printf("could not open %s\n", pszFileName); //return 1; } } /* Write the stream header, if any */ ret = avformat_write_header(m_pOc, NULL); if (ret < 0) { printf("Error occurred when opening output file"); //return 1; } //return 0; } /* write h264 data to mp4 file * 创建mp4文件返回2;写入数据帧返回0 */ void WriteVideo(void* data, int nLen) { int ret; if (0 > vi) { printf("vi less than 0\n"); //return -1; } AVStream *pst = m_pOc->streams[vi]; //printf("vi=====%d\n",vi); // Init packet AVPacket pkt; // caculate pst AVCodecContext *c; c = avcodec_alloc_context3(NULL); if (c == NULL){ printf("Could not allocate AVCodecContext\n"); } avcodec_parameters_to_context(c, pst->codecpar); av_init_packet(&pkt); int isI = isIdrFrame1((uint8_t*)data, nLen); printf("isIFrame is %d\n", isI); pkt.flags |= isI ? AV_PKT_FLAG_KEY : 0; pkt.stream_index = pst->index; pkt.data = (uint8_t*)data; pkt.size = nLen; // Wait for key frame if (waitkey){ if (0 == (pkt.flags & AV_PKT_FLAG_KEY)){ return; } else waitkey = 0; } pkt.pts = (ptsInc++) * (90000 / STREAM_FRAME_RATE); pkt.pts = av_rescale_q((ptsInc++) * 2, pst->codec->time_base, pst->time_base); //pkt.dts = (ptsInc++) * (90000/STREAM_FRAME_RATE); // pkt.pts=av_rescale_q_rnd(pkt.pts, pst->time_base,pst->time_base,(AVRounding)(AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX)); pkt.dts = av_rescale_q_rnd(pkt.dts, pst->time_base, pst->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)); pkt.duration = av_rescale_q(pkt.duration, pst->time_base, pst->time_base); pkt.pos = -1; printf("pkt.size=%d\n", pkt.size); ret = av_interleaved_write_frame(m_pOc, &pkt); if (ret < 0) { printf("cannot write frame"); } } void CloseMp4() { waitkey = -1; vi = -1; if (m_pOc) av_write_trailer(m_pOc); if (m_pOc && !(m_pOc->oformat->flags & AVFMT_NOFILE)) avio_close(m_pOc->pb); if (m_pOc) { avformat_free_context(m_pOc); m_pOc = NULL; } } 一共是报了两个声明被否决 一个是 'av_register_all': 被声明为已否决 另一个是 'AVStream::codec': 被声明为已否决。 这个代码是从https://www.jianshu.com/p/e62dc6928941 照搬的,我这边的FFMPEG的库是4.1版本 因为小弟才刚开始学习 不是很清楚他的实现思路 更不知道 如何解决这两个声明被否决的问题, 请问有大神能够指导一下吗? 'AVStream::codec': 被声明为已否决:指向的是这一句:pkt.pts = av_rescale_q((ptsInc++) * 2, pst->codec->time_base, pst->time_base);

使用ffmpeg方法avcodec_encode_video2 编码参数问题!

雷博的代码! 此处文件格式为YUV420P 使用ffmpeg编码h.264 ![图片说明](https://img-ask.csdn.net/upload/201801/11/1515659805_828534.png) 讲解一下这里的pFrame->data为什么要这样赋值? 代码链接:http://blog.csdn.net/leixiaohua1020/article/details/25430425 假如原始帧格式为YUYV422P的时候 data又该怎么赋值?

FFMPEG中调用avformat_open_input报错

调用avformat_open_input报错:Protocol not found。请大神指点一下,谢谢了。 ``` AVFormatContext *pAudioCtx = NULL; AVCodecContext *pCodecCtx = NULL; AVCodec *pCodec = NULL; AVPacket *packet = NULL; uint8_t *out_buffer; AVFrame *pFrame; SDL_AudioSpec wanted_spec; int audioStream; int i; int ret; int getpicture; int64_t in_channel_layout; struct SwrContext *au_convert_ctx; FILE *pFile = fopen("lmzoutput.pcm", "wb"); char url[] = "16.opus"; av_register_all(); avformat_network_init(); //pAudioCtx = avformat_alloc_context(); //新版本不需要 加了会出错? int err_code; char buf[1024]; memset(buf,0x00,sizeof(buf)); err_code = avformat_open_input(&pAudioCtx, url, NULL, NULL); if (err_code != 0) { av_strerror(err_code, buf, 1024); _TRACE("Couldn't open file %s: %d(%s)", url, err_code, buf); _TRACE("Couldn't open input stream.\n"); return 0; } ```

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

springboot+jwt实现token登陆权限认证

一 前言 此篇文章的内容也是学习不久,终于到周末有时间码一篇文章分享知识追寻者的粉丝们,学完本篇文章,读者将对token类的登陆认证流程有个全面的了解,可以动态搭建自己的登陆认证过程;对小项目而已是个轻量级的认证机制,符合开发需求;更多精彩原创内容关注公主号知识追寻者,读者的肯定,就是对作者的创作的最大支持; 二 jwt实现登陆认证流程 用户使用账号和面发出post请求 服务器接受到请求后使用私...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

程序员写出这样的代码,能不挨骂吗?

当你换槽填坑时,面对一个新的环境。能够快速熟练,上手实现业务需求是关键。但是,哪些因素会影响你快速上手呢?是原有代码写的不够好?还是注释写的不够好?昨夜...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

早上躺尸,晚上干活:硅谷科技公司这么流行迟到?

硅谷科技公司上班时间OPEN早已不是什么新鲜事,早九晚五是常态,但有很多企业由于不打卡,员工们10点、11点才“姗姗来迟”的情况也屡见不鲜。 这种灵活的考勤制度为人羡慕,甚至近年来,国内某些互联网企业也纷纷效仿。不过,硅谷普遍弹性的上班制度是怎么由来的呢?这种“流行性迟到”真的有那么轻松、悠哉吗? 《动态规划专题班》 课程试听内容: 动态规划的解题要领 动态规划三大类 求最值/计数/可行性 常...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

终于懂了TCP和UDP协议区别

终于懂了TCP和UDP协议区别

Python爬虫,高清美图我全都要(彼岸桌面壁纸)

爬取彼岸桌面网站较为简单,用到了requests、lxml、Beautiful Soup4

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

Java岗开发3年,公司临时抽查算法,离职后这几题我记一辈子

前几天我们公司做了一件蠢事,非常非常愚蠢的事情。我原以为从学校出来之后,除了找工作有测试外,不会有任何与考试有关的事儿。 但是,天有不测风云,公司技术总监、人事总监两位大佬突然降临到我们事业线,叫上我老大,给我们组织了一场别开生面的“考试”。 那是一个风和日丽的下午,我翘着二郎腿,左手端着一杯卡布奇诺,右手抓着我的罗技鼠标,滚动着轮轴,穿梭在头条热点之间。 “淡黄的长裙~蓬松的头发...

大胆预测下未来5年的Web开发

在2019年的ReactiveConf 上,《Elm in Action》的作者Richard Feldman对未来5年Web开发的发展做了预测,很有意思,分享给大家。如果你有机会从头...

立即提问
相关内容推荐