Android 采集摄像头数据 , 通过ffmpeg推送流至服务器

Android 采集摄像头数据 , 通过ffmpeg推送流, 通过AdobeMediaServer查看 , 为什么播放视频总是隔一段时间一缓冲 , 而且播放有延迟。求大神帮忙啊

 AVFormatContext *ofmt_ctx;
AVStream* video_st;
//视音频流对应的结构体,用于视音频编解码。
AVCodecContext* pCodecCtx;
AVCodec* pCodec;
AVPacket enc_pkt; // 存储压缩数据(视频对应H.264等码流数据,音频对应AAC/MP3等码流数据)
AVFrame *pFrameYUV; // 存储非压缩的数据(视频对应RGB/YUV像素数据,音频对应PCM采样数据)

int framecnt = 0;
int yuv_width;
int yuv_height;
int y_length;
int uv_length;
int64_t start_time;
//const char* out_path = "rtmp://192.168.2.176/live/livestream";

//Output FFmpeg's av_log()
void custom_log(void *ptr, int level, const char* fmt, va_list vl) {
    FILE *fp = fopen("/storage/emulated/0/av_log.txt", "a+");
    if (fp) {
        vfprintf(fp, fmt, vl);
        fflush(fp);
        fclose(fp);
    }
}

JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_initial(JNIEnv *env,
        jobject obj, jint width, jint height) {
    const char* out_path = "rtmp://192.168.2.176/live/livestream";

    yuv_width = width;
    yuv_height = height;
    y_length = width * height;
    uv_length = width * height / 4;

    //FFmpeg av_log() callback
    av_log_set_callback(custom_log);

    av_register_all();

    avformat_network_init();

    //output initialize
    avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_path);
    //output encoder initialize
    //函数的参数是一个解码器的ID,返回查找到的解码器(没有找到就返回NULL)。
    pCodec = avcodec_find_encoder(AV_CODEC_ID_H264);
    if (!pCodec) {
        LOGE("Can not find encoder!\n");
        return -1;
    }
    pCodecCtx = avcodec_alloc_context3(pCodec);
    pCodecCtx->pix_fmt = PIX_FMT_YUV420P;
    pCodecCtx->width = width;
    pCodecCtx->height = height;
    pCodecCtx->time_base.num = 1;
    pCodecCtx->time_base.den = 25;
    pCodecCtx->bit_rate = 400000;
    pCodecCtx->gop_size = 250;
    /* Some formats want stream headers to be separate. */
    if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)
        pCodecCtx->flags |= CODEC_FLAG_GLOBAL_HEADER;

    //H264 codec param
    //pCodecCtx->me_range = 16;
    //pCodecCtx->max_qdiff = 4;
    //pCodecCtx->qcompress = 0.6;
    pCodecCtx->qmin = 10;
    pCodecCtx->qmax = 51;
    //Optional Param
    pCodecCtx->max_b_frames = 1;
    // Set H264 preset and tune
    AVDictionary *param = 0;
//  av_dict_set(&param, "preset", "ultrafast", 0);
//  av_dict_set(&param, "tune", "zerolatency", 0);
    av_opt_set(pCodecCtx->priv_data, "preset", "superfast", 0);
    av_opt_set(pCodecCtx->priv_data, "tune", "zerolatency", 0);
    //打开编码器
    if (avcodec_open2(pCodecCtx, pCodec, &param) < 0) {
        LOGE("Failed to open encoder!\n");
        return -1;
    }

    //Add a new stream to output,should be called by the user before avformat_write_header() for muxing
    video_st = avformat_new_stream(ofmt_ctx, pCodec);
    if (video_st == NULL) {
        return -1;
    }
    video_st->time_base.num = 1;
    video_st->time_base.den = 25;
    video_st->codec = pCodecCtx;

    //Open output URL,set before avformat_write_header() for muxing
    if (avio_open(&ofmt_ctx->pb, out_path, AVIO_FLAG_READ_WRITE) < 0) {
        LOGE("Failed to open output file!\n");
        return -1;
    }

    //Write File Header
    avformat_write_header(ofmt_ctx, NULL);

    start_time = av_gettime();
    return 0;
}

JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_encode(JNIEnv *env,
        jobject obj, jbyteArray yuv) {
    int ret;
    int enc_got_frame = 0;
    int i = 0;

    // 为解码帧分配内存
    pFrameYUV = avcodec_alloc_frame();
    uint8_t *out_buffer = (uint8_t *) av_malloc(
            avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width,
                    pCodecCtx->height));
    avpicture_fill((AVPicture *) pFrameYUV, out_buffer, PIX_FMT_YUV420P,
            pCodecCtx->width, pCodecCtx->height);

    //安卓摄像头数据为NV21格式,此处将其转换为YUV420P格式
    jbyte* in = (jbyte*) (*env)->GetByteArrayElements(env, yuv, 0);
    memcpy(pFrameYUV->data[0], in, y_length);
    for (i = 0; i < uv_length; i++) {
        *(pFrameYUV->data[2] + i) = *(in + y_length + i * 2);
        *(pFrameYUV->data[1] + i) = *(in + y_length + i * 2 + 1);
    }

    pFrameYUV->format = AV_PIX_FMT_YUV420P;
    pFrameYUV->width = yuv_width;
    pFrameYUV->height = yuv_height;

    enc_pkt.data = NULL;
    enc_pkt.size = 0;
    // 定义AVPacket对象后,请使用av_init_packet进行初始化
    av_init_packet(&enc_pkt);

    /** 编码一帧视频数据
     * int avcodec_encode_video2(AVCodecContext *avctx, AVPacket *avpkt,
     const AVFrame *frame, int *got_packet_ptr);

     该函数每个参数的含义在注释里面已经写的很清楚了,在这里用中文简述一下:
     avctx:编码器的AVCodecContext。
     avpkt:编码输出的AVPacket。
     frame:编码输入的AVFrame。
     got_packet_ptr:成功编码一个AVPacket的时候设置为1。
     函数返回0代表编码成功。

     */
    ret = avcodec_encode_video2(pCodecCtx, &enc_pkt, pFrameYUV, &enc_got_frame);
    av_frame_free(&pFrameYUV);

    if (enc_got_frame == 1) {
        LOGI("Succeed to encode frame: %5d\tsize:%5d\n", framecnt,
                enc_pkt.size);
        framecnt++;
        //标识该AVPacket所属的视频/音频流。
        enc_pkt.stream_index = video_st->index; //标识该视频/音频流

        //Write PTS
        AVRational time_base = ofmt_ctx->streams[0]->time_base; //{ 1, 1000 };
        AVRational r_framerate1 = { 60, 2 };    //{ 50, 2 };
        AVRational time_base_q = { 1, AV_TIME_BASE };
        //Duration between 2 frames (us)
        int64_t calc_duration = (double) (AV_TIME_BASE)
                * (1 / av_q2d(r_framerate1));   //内部时间戳
        //Parameters
        //enc_pkt.pts = (double)(framecnt*calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));
        enc_pkt.pts = av_rescale_q(framecnt * calc_duration, time_base_q,
                time_base);
        enc_pkt.dts = enc_pkt.pts;
        enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base); //(double)(calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));
        enc_pkt.pos = -1;

        //Delay
        int64_t pts_time = av_rescale_q(enc_pkt.dts, time_base, time_base_q);
        int64_t now_time = av_gettime() - start_time;
        if (pts_time > now_time)
            av_usleep(pts_time - now_time);

        ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);
        av_free_packet(&enc_pkt);
    }
//  output(ofmt_ctx);
    return 0;
}

JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_flush(JNIEnv *env,
        jobject obj) {
    int ret;
    int got_frame;
    AVPacket enc_pkt;
    if (!(ofmt_ctx->streams[0]->codec->codec->capabilities & CODEC_CAP_DELAY))
        return 0;
    while (1) {
        enc_pkt.data = NULL;
        enc_pkt.size = 0;
        av_init_packet(&enc_pkt);
        ret = avcodec_encode_video2(ofmt_ctx->streams[0]->codec, &enc_pkt, NULL,
                &got_frame);
        if (ret < 0)
            break;
        if (!got_frame) {
            ret = 0;
            break;
        }
        LOGI("Flush Encoder: Succeed to encode 1 frame!\tsize:%5d\n",
                enc_pkt.size);

        //Write PTS
        AVRational time_base = ofmt_ctx->streams[0]->time_base; //{ 1, 1000 };
        AVRational r_framerate1 = { 60, 2 };
        AVRational time_base_q = { 1, AV_TIME_BASE };
        //Duration between 2 frames (us)
        int64_t calc_duration = (double) (AV_TIME_BASE)
                * (1 / av_q2d(r_framerate1));   //内部时间戳
        //Parameters
        enc_pkt.pts = av_rescale_q(framecnt * calc_duration, time_base_q,
                time_base);
        enc_pkt.dts = enc_pkt.pts;
        enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base);

        //转换PTS/DTS(Convert PTS/DTS)
        enc_pkt.pos = -1;
        framecnt++;
        ofmt_ctx->duration = enc_pkt.duration * framecnt;

        /* mux encoded frame */
        ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);
        if (ret < 0)
            break;
    }
    //Write file trailer
    av_write_trailer(ofmt_ctx);
    return 0;
}

JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_close(JNIEnv *env,
        jobject obj) {
    if (video_st)
        avcodec_close(video_st->codec);
    avio_close(ofmt_ctx->pb);
    avformat_free_context(ofmt_ctx);
    return 0;
}

3个回答

java 代码:

package com.zhanghui.test;

import java.io.IOException;
import java.util.Arrays;

import com.xqh.util.AppLog;

import android.annotation.TargetApi;
import android.app.Activity;
import android.content.pm.PackageManager;
import android.hardware.Camera;
import android.os.AsyncTask;
import android.os.Build;
import android.os.Bundle;
import android.os.Environment;
import android.util.Log;
import android.view.Menu;
import android.view.MenuItem;
import android.view.SurfaceHolder;
import android.view.SurfaceView;
import android.view.View;
import android.view.View.OnClickListener;
import android.widget.Button;
import android.widget.Toast;

@SuppressWarnings("deprecation")
public class MainActivity extends Activity {
private static final String TAG = "MainActivity";
private Button mTakeButton;
private Button mPlayButton;
private Camera mCamera;
private SurfaceView mSurfaceView;
private SurfaceHolder mSurfaceHolder;
private boolean isRecording = false;
private int i = 0;

private class StreamTask extends AsyncTask<Void, Void, Void> {

    private byte[] mData;

    // 构造函数
    StreamTask(byte[] data) {
        this.mData = data;
    }

    @Override
    protected Void doInBackground(Void... params) {
        // TODO Auto-generated method stub
        if (mData != null) {
            Log.i(">>>" , Arrays.toString(mData));
            encode(mData);
        }

        return null;
    }
}

private StreamTask mStreamTask;

@Override
protected void onCreate(Bundle savedInstanceState) {
    super.onCreate(savedInstanceState);
    setContentView(R.layout.activity_main);

    final Camera.PreviewCallback mPreviewCallbacx = new Camera.PreviewCallback() {
        @Override
        public void onPreviewFrame(byte[] arg0, Camera arg1) {
            // TODO Auto-generated method stub
            if (null != mStreamTask) {
                switch (mStreamTask.getStatus()) {
                case RUNNING:
                    return;
                case PENDING:
                    mStreamTask.cancel(false);
                    break;
                default:
                    break;
                }
            }

// if(arg0 != null ){
// for (int i = 0; i < arg0.length; i++) {
// Log.e(">>>", arg0[i]+"");
// }
// }
util.e(">>", Arrays.toString(arg0));
encode(arg0);
// mStreamTask = new StreamTask(arg0);
// mStreamTask.execute((Void) null);
}
};

    mTakeButton = (Button) findViewById(R.id.take_button);
    mPlayButton = (Button) findViewById(R.id.play_button);

    PackageManager pm = this.getPackageManager();
    boolean hasCamera = pm.hasSystemFeature(PackageManager.FEATURE_CAMERA)
            || pm.hasSystemFeature(PackageManager.FEATURE_CAMERA_FRONT)
            || Build.VERSION.SDK_INT < Build.VERSION_CODES.GINGERBREAD;
    if (!hasCamera)
        mTakeButton.setEnabled(false);

    mTakeButton.setOnClickListener(new View.OnClickListener() {
        @Override
        public void onClick(View arg0) {
            // TODO Auto-generated method stub
            if (mCamera != null) {
                if (isRecording) {
                    mTakeButton.setText("Start");
                    mCamera.setPreviewCallback(null);
                    Toast.makeText(MainActivity.this, "encode done",
                            Toast.LENGTH_SHORT).show();
                    isRecording = false;

                } else {
                    mTakeButton.setText("Stop");
                    initial(mCamera.getParameters().getPreviewSize().width,
                            mCamera.getParameters().getPreviewSize().height);

// stream("rtmp://192.168.2.176/live/livestream");
mCamera.setPreviewCallback(mPreviewCallbacx);
isRecording = true;
}
}
}
});

    mPlayButton.setOnClickListener(new OnClickListener() {

        @Override
        public void onClick(View arg0) {
             String folderurl = Environment.getExternalStorageDirectory()
             .getPath();

             String inputurl = folderurl + "/" + "aa.flv";
            // stream("rtmp://192.168.2.176/live/livestream");
        }
    });

    mSurfaceView = (SurfaceView) findViewById(R.id.surfaceView1);
    SurfaceHolder holder = mSurfaceView.getHolder();
    holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);

    holder.addCallback(new SurfaceHolder.Callback() {

        @Override
        public void surfaceDestroyed(SurfaceHolder arg0) {
            // TODO Auto-generated method stub
            if (mCamera != null) {
                mCamera.stopPreview();
                mSurfaceView = null;
                mSurfaceHolder = null;
            }
        }

        @Override
        public void surfaceCreated(SurfaceHolder arg0) {
            // TODO Auto-generated method stub
            try {
                if (mCamera != null) {
                    mCamera.setPreviewDisplay(arg0);
                    mSurfaceHolder = arg0;
                }
            } catch (IOException exception) {
                Log.e(TAG, "Error setting up preview display", exception);
            }
        }

        @Override
        public void surfaceChanged(SurfaceHolder arg0, int arg1, int arg2,
                int arg3) {
            // TODO Auto-generated method stub
            if (mCamera == null)
                return;
            Camera.Parameters parameters = mCamera.getParameters();
            parameters.setPreviewSize(640, 480);
            parameters.setPictureSize(640, 480);
            mCamera.setParameters(parameters);
            try {
                mCamera.startPreview();
                mSurfaceHolder = arg0;
            } catch (Exception e) {
                Log.e(TAG, "could not start preview", e);
                mCamera.release();
                mCamera = null;
            }
        }
    });

}

@TargetApi(9)
@Override
protected void onResume() {
    super.onResume();
    if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.GINGERBREAD) {
        mCamera = Camera.open(0);
    } else {
        mCamera = Camera.open();
    }
}

@Override
protected void onPause() {
    super.onPause();
    flush();
    close();
    if (mCamera != null) {
        mCamera.release();
        mCamera = null;
    }
}

// JNI
public native int initial(int width, int height);

public native int encode(byte[] yuvimage);

public native int flush();

public native int close();

// JNI

// public native int stream(String outputurl);

static {
    System.loadLibrary("avutil-54");
    System.loadLibrary("swresample-1");
    System.loadLibrary("avcodec-56");
    System.loadLibrary("avformat-56");
    System.loadLibrary("swscale-3");
    System.loadLibrary("postproc-53");
    System.loadLibrary("avfilter-5");
    System.loadLibrary("avdevice-56");
    System.loadLibrary("encode");
}

}

楼主,给个源码好分析分析啊~~~~~

PIX_FMT_YUV420P找不到

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
FFmpeg推送rtmp视频流到nginx的问题

FFmpeg将网络摄像机的rtsp视频流转换成rtmp流,然后推送rtmp视频流到nginx上面,然后使用手机播放hls的视频流。 在期间遇到一些问题,总是丢包,我截了个图,请大家帮忙看看是不是我在使用ffmpeg时参数设置的不对啊。 我使用的命令: ffmpeg -i rtsp://admin:12345@172.27.35.56 -vcodec copy -acodec aac -ar 44100 -strict -2 -ac 1 -f flv -s 640x480 rtmp://172.27.35.2:1935/hls/test2 ![图片说明](https://img-ask.csdn.net/upload/201502/03/1422933381_314422.jpg)

ffmpeg推送rtmp流到nginx问题

![图片说明](https://img-ask.csdn.net/upload/201605/24/1464080191_316432.png) ![图片说明](https://img-ask.csdn.net/upload/201605/24/1464080205_535530.png) ![图片说明](https://img-ask.csdn.net/upload/201605/24/1464080220_57170.png)

nginx-rtmp流媒体服务器将一个MP4文件通过ffmpeg推流,直播可以播放,但是点播就无法播放,原因是什么,求大神指导

nginx-rtmp流媒体服务器将一个MP4文件通过ffmpeg推流,直播可以播放,但是点播就无法播放,点播除了在MP4官网下载的MP4文件可以播放,其他任何MP4文件都无法点播,但是用vlc是可以正常播放的 注:flv格式文件可以点播 原因是什么,求大神指导 配置,点播状况如下图 注:第二张图 ffplay "rtmp://xxxx:1935/vod/test.mp4"是下面一个文件201709151.mp4推流上来的,201709151可以点播,但是test1.mp4不能播放 ![图片说明](https://img-ask.csdn.net/upload/202005/15/1589537294_357888.jpg)

关于ffmpeg在推流中动态修改 输入流参数的问题

最近遇到一个问题,代码片段如下 ![图片说明](https://img-ask.csdn.net/upload/201903/23/1553310180_189286.png) 这样打开输入流 抓取桌面的某一区域进行推流。 这个桌面区域是这样子的(红色框框的内容要推出去) ![图片说明](https://img-ask.csdn.net/upload/201903/23/1553310287_610474.png) 但是有个问题,打开输入流在推流的过程中,要支持移动窗口或者是缩放这个窗口,此时推流的内容要相应发生改变。这几天刚学习ffmpeg,知道是要修改代码中的offset_x等参数,但是尝试了几个方式都不行。还请各位大神指导下,谢谢了

ffmpeg 推流到 nginx时 , 一段时间后会中断

用 ffmpeg 将 摄像头的rtsp流转成rtmp后推到 nginx服务器 , 播放器能够正常播放一段时间(一小时左右) , 之后就会出错 ,播放器显示 error loading stream id not found on server . 我查了一下 ffmpeg的输出 . 正常时的输出为: ![图片说明](https://img-ask.csdn.net/upload/201902/14/1550135472_463288.png) 正常播放时 : frame , size 的值都是增加了 播放器无法播放后的输出为 ![图片说明](https://img-ask.csdn.net/upload/201902/14/1550135502_713807.jpeg) 无法播放时 : frame ,size 的值都不再增加 , drop值一直增加 , speed 和 biterate与我设置的也不一样 . 推流语句为 : ffmpeg -i rtsp://192.168.1.224/main_stream -tune zerolatency -vcodec libx264 -preset ultrafast -b:v 400k -s 720x576 -r 25 -f flv rtmp://192.168.1.226:1935/mylive/test2 没有接触过视频处理这些东西 , 有没有兄弟指点一下 ? ?

求问FFmpeg+ngnix如何做到同时推多个流?

最近在做对接摄像头在Chrome上播放的项目,用FFmpeg+nginx来将rtsp转码成rtmp,现在我用FFmpeg推一个流已经成功了,但是怎么才能推多个流呢,只能多开几个命令行来操作吗?

ffmpeg 怎么实时的推流音频buf到rtmp服务器

麦克风喊话,实时的传来MP3音频buf,需要实时的将这个音频buf传到rtmp服务器

ffmpeg 推流 海康NVR的回放流 推成 mpegts

命令:ffmpeg -i rtsp://admin:qzxl025.@192.168.1.109:554/Streaming/tracks/201?starttime=20190821t09381 2z"&"endtime=20190821t164816z -f mpegts -codec:v mpeg1video -s 1280*720 http://192.168.1.40:8081/123/1 ![图片说明](https://img-ask.csdn.net/upload/201908/21/1566382729_586775.png) 如果直接摄像头的RTSP流就完全没问题 ![图片说明](https://img-ask.csdn.net/upload/201908/21/1566382744_94942.png) 这是什么原因啊,回放流和预览流有区别吗????求大佬解答一下

通过pipe使用ffmpeg推流视频流处理出错

![图片说明](https://img-ask.csdn.net/upload/201903/30/1553946177_807326.jpg) ``` command = ['ffmpeg', '-use_wallclock_as_timestamps', '1', '-y', '-f', 'rawvideo', '-vcodec', 'rawvideo', '-pix_fmt', 'bgr24', '-s', '640*480', '-r', '9', '-i', '-', '-c:v', 'libx264', '-pix_fmt', 'yuv420p', '-preset', 'ultrafast', '-f', 'hls', '-hls_list_size', '9', '-hls_time','2', '/ts/pla.m3u8'] proc = sp.Popen(command, stdin=sp.PIPE) ··· ··· vid = cv2.VideoCapture(0) ··· return_value, frame = vid.read() ··· pipe_frame = frame[:, :, ::-1] proc.stdin.write(pipe_frame.tostring()) ```

android上 用ffmpeg解码rtp组播流

android上 用ffmpeg解码rtp组播流,avformat_find_stream_info这一步总是失败,错误信息是 Connection timed out,同样的代码linux下测试是没问题的,移植到android后就不行,这是为什么呢?

Android通过ffmpeg播放byte[]字节码

网上找了两天,大多都是通过ffmpeg直接播放本地文件或者直播地址url的,很少有能播放字节码的demo。如有高人知晓,请把链接分享一下。 本人Android猿,对c语言不是很熟,通过jni调用的c文件不会改也不敢改,生怕出错,所以最好能有直接可以用的 ![图片说明](https://img-ask.csdn.net/upload/201706/14/1497403995_619319.jpeg)

请问如何使用ffmpeg库实现多文件(视频、音频)无缝连续推流?

# 1.网上有介绍concat命令进行合并后,再推,不符合我的需求 # # 2.具体怎么实现尼?是写脚本命令,还是利用第三库? # # 3.如果对推送文件有要求,比如定时的播放文件,那又该如何实现?

ffmpeg/dshow直播推流不成功

ffmpeg -rtbufsize 1584k -f dshow -i video="USB 视频设备" -vcodec libx264 -preset:v ultrafast -tune:v zerolatency -f flv rtmp://192.168.11.122/publish/flv/channel 用了这个命令,然后老是失败,报这样的错,谁能给解决下,谢谢! ![图片说明](https://img-ask.csdn.net/upload/201510/22/1445478398_556038.jpg)

关于ffmpeg打开摄像头播放的问题

看了雷神的博客 ``` avdevice_register_all(); AVFormatContext *pFormatCtx = avformat_alloc_context(); AVInputFormat *ifmt=ifmt=av_find_input_format("vfwcap"); avformat_open_input(&pFormatCtx, 0, ifmt,NULL); ``` ![程序运行之后显示](https://img-ask.csdn.net/upload/201808/30/1535633185_812618.png) ![程序输出](https://img-ask.csdn.net/upload/201808/30/1535633209_804867.png) 最终无法打开摄像头,不清楚是什么原因,网上也没类似答案

linux的V4l2可以采集到H264码流数据吗?

我在尝试使用Linux的V4l2采集摄像头数据并显示到屏幕中,之前采用的是 V4L2_PIX_FMT_YUYV 格式采集数据的,但是觉得使用ffmpeg解码H264的 速度可能会更快,但是在 <linux/videodev2.h> 文件中并没能找到 V4L2_PIX_FMT_H264 格式,可以用其他格式代替?或者有其他的办法获取 H264码流?

使用golang服务器接收ffmpeg实时流媒体,并回显到websocket conn

<div class="post-text" itemprop="text"> <p>I'm writing a server in go and need to get a cam video in a ffmpeg client and passes the streaming to websocket users.</p> <p>But in my code, the http body received from the ffmpeg client is loaded by a ioutil.ReadAll and cannot make a live broadcast because the body is receiving new values with the video capture. How i can take the last frame of the video, send to the websockets, clean the variable and receive the new frame correctly (or i'm doing in the wrong way)?</p> <p>Here is my code to this function:</p> <pre><code>//StartClientStream needs a email$clientName$streamName func StartClientStream(w http.ResponseWriter, r *http.Request) { values := strings.Split(string(mux.Vars(r)["rest"]), "$") if len(values) != 3 { w.Write([]byte(`{"err":"the passed value does not match with necessary fields"}`)) return } //Get user ID id, _ := getID(values[0]) //Take the streaming ClientName clientName := id + " - " + values[1] //Take the passed Body body, _ := ioutil.ReadAll(r.Body) //Watch for websockets requests for this video for user := range Streaming.User[clientName] { conexoes := strings.Split(Streaming.User[clientName][user], "-") for c := range conexoes { if strings.EqualFold(conexoes[c], values[2]) { //Send the video user.send &lt;- body } } } } </code></pre> </div>

用 ffmpeg命令行工具实现 屏幕与摄像头图像叠加(摄像头图像叠加上屏幕图右下角) 后推流命令,发现会卡,怎么解决呢?

问题:用 ffmpeg命令行工具实现 屏幕与摄像头图像叠加(摄像头图像叠加上屏幕图右下角) 后推流,发现会卡,怎么解决呢? 我的命令:ffmpeg -f gdigrab -framerate 30 -video_size 1920x1080 -i desktop -f dshow -framerate 30 -video_size 640x480 -i video="HD USB Camera" -filter_complex "overlay=main_w-overlay_w-10:main_h-overlay_h-10" -c:v libx264 -r 30 -b:v 1500k -pix_fmt yuv420p -tune zerolatency -preset ultrafast -f flv -y "rtmp://localhost/live/demo" 这里 "HD USB Camera" 是我的相机名称。 我发现跟命令中输入源的顺序有关,但是图像叠加是默认第一输入是背景图,第二输入是前景图的,所以若更换顺序,虽然不卡了,但却不能实现叠加效果,怎么办呢??另外因为某些原因我这里一定是使用 gdigrab 来捕获桌面的。

如何使用ffmpeg的函数转发rtsp的视频流到组播组,不是命令行方式,或者有其他方式也行?

如何使用ffmpeg库中的函数从流媒体服务器获取rtsp流,然后将该rtsp流转发到一个组播组?金币不多见谅

C++用FFMPEG库做的h.264网络流播放器,直连相机播放没问题,通过流媒体转发服务器播放就花屏

如题,麻烦问大神这是什么原因导致的?还是就是在自己电脑打开流媒体服务器都没花屏,服务器放别的电脑上面然后我这边连接,就会有严重的花屏。

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

Intellij IDEA 实用插件安利

1. 前言从2020 年 JVM 生态报告解读 可以看出Intellij IDEA 目前已经稳坐 Java IDE 头把交椅。而且统计得出付费用户已经超过了八成(国外统计)。IDEA 的...

搜狗输入法也在挑战国人的智商!

故事总是一个接着一个到来...上周写完《鲁大师已经彻底沦为一款垃圾流氓软件!》这篇文章之后,鲁大师的市场工作人员就找到了我,希望把这篇文章删除掉。经过一番沟通我先把这篇文章从公号中删除了...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

魂迁光刻,梦绕芯片,中芯国际终获ASML大型光刻机

据羊城晚报报道,近日中芯国际从荷兰进口的一台大型光刻机,顺利通过深圳出口加工区场站两道闸口进入厂区,中芯国际发表公告称该光刻机并非此前盛传的EUV光刻机,主要用于企业复工复产后的生产线扩容。 我们知道EUV主要用于7nm及以下制程的芯片制造,光刻机作为集成电路制造中最关键的设备,对芯片制作工艺有着决定性的影响,被誉为“超精密制造技术皇冠上的明珠”,根据之前中芯国际的公报,目...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

百度工程师,获利10万,判刑3年!

所有一夜暴富的方法都写在刑法中,但总有人心存侥幸。这些年互联网犯罪高发,一些工程师高技术犯罪更是引发关注。这两天,一个百度运维工程师的案例传遍朋友圈。1...

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《Oracle Java SE编程自学与面试指南》最佳学习路线图2020年最新版(进大厂必备)

正确选择比瞎努力更重要!

字节跳动面试官竟然问了我JDBC?

轻松等回家通知

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

实时更新:计算机编程语言排行榜—TIOBE世界编程语言排行榜(2020年6月份最新版)

内容导航: 1、TIOBE排行榜 2、总榜(2020年6月份) 3、本月前三名 3.1、C 3.2、Java 3.3、Python 4、学习路线图 5、参考地址 1、TIOBE排行榜 TIOBE排行榜是根据全世界互联网上有经验的程序员、课程和第三方厂商的数量,并使用搜索引擎(如Google、Bing、Yahoo!)以及Wikipedia、Amazon、YouTube统计出排名数据。

立即提问
相关内容推荐