Recherche avancée

Médias (1)

Mot : - Tags -/blender

Autres articles (83)

  • Le profil des utilisateurs

    12 avril 2011, par

    Chaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
    L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...)

  • List of compatible distributions

    26 avril 2011, par

    The table below is the list of Linux distributions compatible with the automated installation script of MediaSPIP. Distribution nameVersion nameVersion number Debian Squeeze 6.x.x Debian Weezy 7.x.x Debian Jessie 8.x.x Ubuntu The Precise Pangolin 12.04 LTS Ubuntu The Trusty Tahr 14.04
    If you want to help us improve this list, you can provide us access to a machine whose distribution is not mentioned above or send the necessary fixes to add (...)

  • Configurer la prise en compte des langues

    15 novembre 2010, par

    Accéder à la configuration et ajouter des langues prises en compte
    Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
    De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
    Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...)

Sur d’autres sites (8788)

  • Hardware Accelerated H264 Decode using DirectX11 in Unity Plugin for UWP

    8 janvier 2019, par rohit n

    I’ve built an Unity plugin for my UWP app which converts raw h264 packets to RGB data and renders it to a texture. I’ve used FFMPEG to do this and it works fine.

    int framefinished = avcodec_send_packet(m_pCodecCtx, &packet);
    framefinished = avcodec_receive_frame(m_pCodecCtx, m_pFrame);
    // YUV to RGB conversion and render to texture after this

    Now, I’m trying to shift to hardware based decoding using DirectX11 DXVA2.0.

    Using this : https://docs.microsoft.com/en-us/windows/desktop/medfound/supporting-direct3d-11-video-decoding-in-media-foundation

    I was able to create a decoder(ID3D11VideoDecoder) but I don’t know how to supply it the raw H264 packets and get the YUV or NV12 data as output.
    (Or if its possible to render the output directly to the texture since I can get the ID3D11Texture2D pointer)

    so my question is, How do you send the raw h264 packets to this decoder and get the output from it ?

    Also, this is for real time operation so I’m trying to achieve minimal latency.

    Thanks in advance !

  • avfilter/vf_geq : use per-thread AVExpr for expression evaluation

    28 décembre 2019, par Marton Balint
    avfilter/vf_geq : use per-thread AVExpr for expression evaluation
    

    There was no consensus about separating AVExprState from AVExpr so here is a
    minimal patch using the existing AVExpr to fix ticket #7528.

    Signed-off-by : Marton Balint <cus@passwd.hu>

    • [DH] doc/filters.texi
    • [DH] libavfilter/vf_geq.c
  • Stream frame from video to pipeline and publish it to HTTP mjpeg via ffmpeg

    18 juillet 2018, par Rafał Sardaw

    Let’s say I have very simple program which has been written in C++ with usage of OpenCV 3.4 under Windows 10.

    VideoCapture cap("test.avi");
    Mat frame;
    while(true){
       if (!cap.read(frame))  
       {
           break;
       }
       // SEND FRAME TO PIPE
    }

    It’s just simple example of reading frame by frame avi video, but in the end it’s going to be server-side application which produces modified stream from few ip cameras. I want to use html5 video tag to display output directly on website, but it’s quite hard to find useful information related with that topic ( for Windows ). If I understand it correctly I need to define pipeline and send there MJPEG stream, with help of FFMPEG, where FFMPEG will create local HTTP server on specific port. Anyone ever challenged similar task under Windows ? I guess that 80% of task is related with proper usage of ffmpeg command line tool, one of my priorities is minimal modification of application.

    So to make long story short, I have application which I can call directly from command line :

    stream_producer.exe CAMERA_1

    and I want to be able to see MJPEG stream under :

    http://localhost:1234

    which can be displayed on local website in intranet.

    Regards.