Recherche avancée

Médias (91)

Autres articles (40)

  • Demande de création d’un canal

    12 mars 2010, par

    En fonction de la configuration de la plateforme, l’utilisateur peu avoir à sa disposition deux méthodes différentes de demande de création de canal. La première est au moment de son inscription, la seconde, après son inscription en remplissant un formulaire de demande.
    Les deux manières demandent les mêmes choses fonctionnent à peu près de la même manière, le futur utilisateur doit remplir une série de champ de formulaire permettant tout d’abord aux administrateurs d’avoir des informations quant à (...)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

Sur d’autres sites (5793)

  • Use modern avconv syntax for codec selection in documentation and tests

    18 octobre 2012, par Diego Biurrun
    Use modern avconv syntax for codec selection in documentation and tests
    
    • [DBH] doc/encoders.texi
    • [DBH] doc/faq.texi
    • [DBH] doc/filters.texi
    • [DBH] tests/fate-run.sh
    • [DBH] tests/fate/demux.mak
    • [DBH] tests/fate/h264.mak
    • [DBH] tests/fate/microsoft.mak
    • [DBH] tests/fate/mp3.mak
    • [DBH] tests/fate/mpc.mak
    • [DBH] tests/fate/utvideo.mak
    • [DBH] tests/fate/video.mak
    • [DBH] tests/fate/vqf.mak
    • [DBH] tests/lavf-regression.sh
  • Hardware Accelerated H264 Decode using DirectX11 in Unity Plugin for UWP

    8 janvier 2019, par rohit n

    I’ve built an Unity plugin for my UWP app which converts raw h264 packets to RGB data and renders it to a texture. I’ve used FFMPEG to do this and it works fine.

    int framefinished = avcodec_send_packet(m_pCodecCtx, &packet);
    framefinished = avcodec_receive_frame(m_pCodecCtx, m_pFrame);
    // YUV to RGB conversion and render to texture after this

    Now, I’m trying to shift to hardware based decoding using DirectX11 DXVA2.0.

    Using this : https://docs.microsoft.com/en-us/windows/desktop/medfound/supporting-direct3d-11-video-decoding-in-media-foundation

    I was able to create a decoder(ID3D11VideoDecoder) but I don’t know how to supply it the raw H264 packets and get the YUV or NV12 data as output.
    (Or if its possible to render the output directly to the texture since I can get the ID3D11Texture2D pointer)

    so my question is, How do you send the raw h264 packets to this decoder and get the output from it ?

    Also, this is for real time operation so I’m trying to achieve minimal latency.

    Thanks in advance !

  • How do I create and initialise a DXGI_FORMAT_NV12 resource in DX12 (source is AVFrame)

    5 janvier 2023, par mike

    I'm trying to create an NV12 resource as source for a video encoder in DX12. While I intend to eventually populate a resource from GPU, what I'm trying to do now is take an ffmpeg AVFrame I already have (in AV_PIX_FMT_YUV420P format) and create a texture in DXGI_FORMAT_NV12 format using that data.

    


    I understand the NV12 format (https://learn.microsoft.com/en-us/windows/win32/medfound/recommended-8-bit-yuv-formats-for-video-rendering#nv12) has U and V interleaved while the AV_PIX_FMT_YUV420P doesn't.

    


    My main question is what does the D3D12_RESOURCE_DESC look like for an NV12 texture - do I tell it I need more than one array/mip level to make it planar ? Or do I just give it a single memory address with both planes layed out as per the NV12 format, and it figures out subresources for me based on the format ?
    
I understand that to read the data I define two SRVs, one for Y mapped to the Red channel and a second for U and V, but it's how I initialise it that's confusing me.