我正在尝试使用MediaCodec来检索视频中的所有帧以进行图像处理,我正在尝试渲染视频并从outBuffers中捕获帧
但我无法从接收的字节中启动位图实例.

我试图将它渲染到曲面或没有任何东西(null),因为我注意到当渲染为null时,outBuffers将获取渲染帧的字节.

这是代码:

private static final String SAMPLE = Environment.getExternalStorageDirectory() + "/test_videos/sample2.mp4";
private PlayerThread mPlayer = null;

@Override
protected void onCreate(Bundle savedInstanceState) {
    super.onCreate(savedInstanceState);

    SurfaceView sv = new SurfaceView(this);
    sv.getHolder().addCallback(this);
    setContentView(sv);
}

protected void onDestroy() {
    super.onDestroy();
}

@Override
public void surfaceCreated(SurfaceHolder holder) {
}

@Override
public void surfaceChanged(SurfaceHolder holder,int format,int width,int height) {
    if (mPlayer == null) {
        mPlayer = new PlayerThread(holder.getSurface());
        mPlayer.start();
    }
}

@Override
public void surfaceDestroyed(SurfaceHolder holder) {
    if (mPlayer != null) {
        mPlayer.interrupt();
    }
}

private void writeFrametoSDCard(byte[] bytes,int i,int sampleSize) {
    try {
        Bitmap bmp = BitmapFactory.decodeByteArray(bytes,sampleSize);

        File file = new File(Environment.getExternalStorageDirectory() + "/test_videos/sample" + i + ".png");
        if (file.exists())
            file.delete();

        file.createNewFile();

        FileOutputStream out = new FileOutputStream(file.getAbsoluteFile());

        bmp.compress(Bitmap.CompressFormat.PNG,90,out);
        out.close();

    } catch (Exception e) {
        e.printstacktrace();
    }
}

private class PlayerThread extends Thread {
    private MediaExtractor extractor;
    private MediaCodec decoder;
    private Surface surface;

    public PlayerThread(Surface surface) {
        this.surface = surface;
    }

    @Override
    public void run() {
        extractor = new MediaExtractor();
        extractor.setDataSource(SAMPLE);

        int index = extractor.getTrackCount();
        Log.d("MediaCodecTag","Track count: " + index);

        for (int i = 0; i < extractor.getTrackCount(); i++) {
            MediaFormat format = extractor.getTrackFormat(i);
            String mime = format.getString(MediaFormat.KEY_MIME);
            if (mime.startsWith("video/")) {
                extractor.selectTrack(i);
                decoder = MediaCodec.createDecoderByType(mime);
                decoder.configure(format,surface,null,0);
                break;
            }
        }

        if (decoder == null) {
            Log.e("DecodeActivity","Can't find video info!");
            return;
        }

        decoder.start();

        ByteBuffer[] inputBuffers = decoder.getInputBuffers();
        ByteBuffer[] outputBuffers = decoder.getoutputBuffers();
        BufferInfo info = new BufferInfo();
        boolean iSEOS = false;
        long startMs = System.currentTimeMillis();

        int i = 0;
        while (!Thread.interrupted()) {
            if (!iSEOS) {
                int inIndex = decoder.dequeueInputBuffer(10000);
                if (inIndex >= 0) {
                    ByteBuffer buffer = inputBuffers[inIndex];

                    int sampleSize = extractor.readSampleData(buffer,0);

                    if (sampleSize < 0) {
                        decoder.queueInputBuffer(inIndex,MediaCodec.BUFFER_FLAG_END_OF_STREAM);
                        iSEOS = true;
                    } else {
                        decoder.queueInputBuffer(inIndex,sampleSize,extractor.getSampleTime(),0);
                        extractor.advance();
                    }
                }
            }

            /* saves frame to sdcard */
            int outIndex = decoder.dequeueOutputBuffer(info,10000); // outIndex most of the times null

            switch (outIndex) {
            case MediaCodec.INFO_OUTPUT_BUFFERS_CHANGED:
                Log.d("DecodeActivity","INFO_OUTPUT_BUFFERS_CHANGED");
                outputBuffers = decoder.getoutputBuffers();
                break;
            case MediaCodec.INFO_OUTPUT_FORMAT_CHANGED:
                Log.d("DecodeActivity","New format " + decoder.getoutputFormat());
                break;
            case MediaCodec.INFO_TRY_AGAIN_LATER:
                Log.d("DecodeActivity","dequeueOutputBuffer timed out!");
                break;
            default:
                ByteBuffer buffer = outputBuffers[outIndex];
                Log.v("DecodeActivity","We can't use this buffer but render it due to the API limit," + buffer);

                // We use a very simple clock to keep the video FPS,or the video
                // playback will be too fast
                while (info.presentationTimeUs / 1000 > System.currentTimeMillis() - startMs) {
                    try {
                        sleep(10);
                    } catch (InterruptedException e) {
                        e.printstacktrace();
                        break;
                    }
                }
                decoder.releaSEOutputBuffer(outIndex,true);
                try {
                    byte[] dst = new byte[outputBuffers[outIndex].capacity()];
                    outputBuffers[outIndex].get(dst);
                    writeFrametoSDCard(dst,i,dst.length);
                    i++;
                } catch (Exception e) {
                    Log.d("iDecodeActivity","Error while creating bitmap with: " + e.getMessage());
                }

                break;
            }

            // All decoded frames have been rendered,we can stop playing Now
            if ((info.flags & MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0) {
                Log.d("DecodeActivity","OutputBuffer BUFFER_FLAG_END_OF_STREAM");
                break;
            }
        }

        decoder.stop();
        decoder.release();
        extractor.release();
    }
}

任何帮助都会很有帮助

解决方法

您可以解码到Surface或ByteBuffer,但不能同时解码.因为您正在配置Surface,所以输出缓冲区中始终会有零字节的数据.

如果你配置ByteBuffer解码,数据格式会有所不同,但据我所知,它永远不会是Bitmap理解的ARGB格式.您可以在方法checkFrame()中的CTS EncodeDecodeTest中的缓冲区到缓冲区测试中查看正在检查的两种YUV格式的示例.但请注意,它首先要做的是检查格式,如果无法识别则立即返回.

目前(Android 4.4),唯一可行的方法是解码为SurfaceTexture,使用GLES渲染,然后使用glreadPixels()提取RGB数据. bigflake上提供了示例代码 – 请参阅ExtractMpegFramesTest(需要API 16).

android – MediaCodec从视频中获取所有帧的更多相关文章

  1. 如何直接从Android Surface访问EGL图像以用于MediaCodec视频解码器?

    )而无需进行格式转换,但目前还没有类似的机制.我不知道比你描述的更好的方法.更新:我的办公室伙伴提出了一个建议:使用着色器将缓冲区渲染为两个纹理,一个用于Y,另一个用于CbCr.这样可以保持GLES中的所有操作,而不会扩展到完整的RGB.在内部,它会将MediaCodec输出转换为RGB并通过它进行两次研磨,但这可能比将其复制到用户空间并在cpu上自行完成更便宜.

  2. MediaCodec如何在Android框架内找到编解码器?

    我试图了解MediaCodec如何用于硬件解码.我在android内部的知识非常有限.这是我的发现:有一个xml文件代表android系统中的编解码器细节.这意味着,如果我们使用MediaCodec从JavaApplication创建编解码器应该在xml文件的帮助下找出相应的编码器.我在做什么?

  3. android – 解码音频文件并重新编码为所需的PCM格式:44,100 kHz,2个通道,16位

    解决方法根据我们在评论中的对话,这个答案涉及使用OpenSL将音频数据解码到PCM.不幸的是,我无法使用MediaCodec类提供类似的答案.首先,设置一个AndroidNDK项目(使用Eclipse:右键单击项目,Android工具–>添加本机支持…

  4. android – 使用MediaCodec编码之前为Grafika的“连续捕获”活动裁剪视频

    解决方法看看“相机纹理”活动.请注意,它允许您以各种方式操作图像,特别是“缩放”.“缩放”是通过修改纹理坐标来完成的.ScaledDrawable2D班这样做;rectScale()调用改变了“缩放”,而不是缩放矩形本身.纹理坐标的范围从0.0到1.0(含),getTexCoordArray()方法修改它们以跨越纹理的子集.要剪切帧,您需要按比例修改纹理坐标.例如,如果输入视频是纵向720×1280,并且您想要720×720,则可以更改此坐标:对此:然后在正方形而不是矩形上渲染它.

  5. android – 调用MediaCodec.configure()时出现非法状态异常

    奇怪的是它只发生在某些设备上.欢迎大家提出意见!

  6. 如何将H.264 NAL设备提供给Android MediaCodec进行解码?

    我应该在发送NAL单元之前剥离0x000x000x01序列吗?我是否需要忽略/删除某些NAL单元类型?

  7. android – 使用MediaCodec截断视频

    我用AndroidMediaCodec库来转码视频文件(主要是改变分辨率Samplecodehere)我想要实现的另一件事是截断视频–仅开始15秒.逻辑是检查videoExtractor.getSampleTime()是否大于15秒,我只是将EOS写入解码器缓冲区.但我得到一个异常引起:android.media.MediaCodec$CodecException:Error0xfffffff3这

  8. android – 缓冲SurfaceCodec的Surface输入

    >来自Android的任何人都可以评论相机和MediaCodec之间是否协调ByteBuffer格式是否在路线图上?

  9. android – MediaCodec从视频中获取所有帧

    我正在尝试使用MediaCodec来检索视频中的所有帧以进行图像处理,我正在尝试渲染视频并从outBuffers中捕获帧但我无法从接收的字节中启动位图实例.我试图将它渲染到曲面或没有任何东西(null),因为我注意到当渲染为null时,outBuffers将获取渲染帧的字节.这是代码:任何帮助都会很有帮助解决方法您可以解码到Surface或ByteBuffer,但不能同时解码.因为您正在配置Sur

  10. Android MediaCodec和摄像头:如何实现更高的帧速率从相机获取帧原始数据?

    bigflake.com中的CameraToMpegTest.java或Grafika中的“Showcapturecamera”的示例使用camera.preview来获取帧数据.实验表明(Nexus4,Android4.4.2)的帧率为10fps.这没有预期的那么高.如果我们使用相同的设备(Nexus4,Android4.4.2)使用相机录制视频,则帧速率为30fps.所以我假设使用camera

随机推荐

  1. bluetooth-lowenergy – Altbeacon库无法在Android 5.0上运行

    昨天我在Nexus4上获得了Android5.0的更新,并且altbeacon库停止了检测信标.似乎在监视和测距时,didEnterRegion和didRangeBeaconsInRegion都没有被调用.即使RadiusNetworks的Locate应用程序现在表现不同,一旦检测到信标的值,它们就不再得到更新,并且通常看起来好像信标超出了范围.我注意到的一点是,现在在logcat中出现以下行“B

  2. android – react-native动态更改响应者

    我正在使用react-native进行Android开发.我有一个视图,如果用户长按,我想显示一个可以拖动的动画视图.我可以使用PanResponder实现这一点,它工作正常.但我想要做的是当用户长按时,用户应该能够继续相同的触摸/按下并拖动新显示的Animated.View.如果您熟悉Google云端硬盘应用,则它具有类似的功能.当用户长按列表中的任何项目时,它会显示可拖动的项目.用户可以直接拖

  3. android – 是否有可能通过使用与最初使用的证书不同的证书对其进行签名来发布更新的应用程序

    是否可以通过使用与最初使用的证书不同的证书进行签名来发布Android应用程序的更新?我知道当我们尝试将这样的构建上传到市场时,它通常会给出错误消息.但有没有任何出路,比如将其标记为主要版本,指定市场中的某个地方?解决方法不,你不能这样做.证书是一种工具,可确保您是首次上传应用程序的人.所以总是备份密钥库!

  4. 如何检测Android中是否存在麦克风?

    ..所以我想在让用户访问语音输入功能之前检测麦克风是否存在.如何检测设备上是否有麦克风.谢谢.解决方法AndroidAPI参考:hasSystemFeature

  5. Android – 调用GONE然后VISIBLE使视图显示在错误的位置

    我有两个视图,A和B,视图A在视图B上方.当我以编程方式将视图A设置为GONE时,它将消失,并且它正下方的视图将转到视图A的位置.但是,当我再次将相同的视图设置为VISIBLE时,它会在视图B上显示.我不希望这样.我希望视图B回到原来的位置,这是我认为会发生的事情.我怎样才能做到这一点?编辑–代码}这里是XML:解决方法您可以尝试将两个视图放在RelativeLayout中并相对于彼此设置它们的位置.

  6. android – 获得一首歌的流派

    我如何阅读与歌曲相关的流派?我可以读这首歌,但是如何抓住这首歌的流派,它存放在哪里?解决方法检查此代码:

  7. android – 使用textShadow折叠工具栏

    我有一个折叠工具栏的问题,在展开状态我想在文本下面有一个模糊的阴影,我使用这段代码:用:我可以更改textColor,它可以工作,但阴影不起作用.我为阴影尝试了很多不同的值.是否可以为折叠文本投射阴影?

  8. android – 重用arm共享库

    我已经建立了armarm共享库.我有兴趣重用一个函数.我想调用该函数并获得返回值.有可能做这样的事吗?我没有任何头文件.我试过这个Android.mk,我把libtest.so放在/jni和/libs/armeabi,/lib/armeabi中.此时我的cpp文件编译,但现在是什么?我从objdump知道它的名字编辑:我试图用这个android.mk从hello-jni示例中添加prebuild库:它工作,但libtest.so相同的代码显示以下错误(启动时)libtest.so存在于libhello-j

  9. android – 为NumberPicker捕获键盘’Done’

    我有一个AlertDialog只有一些文本,一个NumberPicker,一个OK和一个取消.(我知道,这个对话框还没有做它应该保留暂停和恢复状态的事情.)我想在软键盘或其他IME上执行“完成”操作来关闭对话框,就像按下了“OK”一样,因为只有一个小部件可以编辑.看起来处理IME“Done”的最佳方法通常是在TextView上使用setonEditorActionListener.但我没有任何Te

  10. android – 想要在调用WebChromeClient#onCreateWindow时知道目标URL

    当我点击一个带有target=“_blank”属性的超链接时,会调用WebChromeClient#onCreateWindow,但我找不到新的窗口将打开的新方法?主页url是我唯一能知道的东西?我想根据目标网址更改应用行为.任何帮助表示赞赏,谢谢!

返回
顶部