Recherche avancée

Médias (0)

Mot : - Tags -/masques

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (99)

  • Multilang : améliorer l’interface pour les blocs multilingues

    18 février 2011, par

    Multilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
    Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela.

  • (Dés)Activation de fonctionnalités (plugins)

    18 février 2011, par

    Pour gérer l’ajout et la suppression de fonctionnalités supplémentaires (ou plugins), MediaSPIP utilise à partir de la version 0.2 SVP.
    SVP permet l’activation facile de plugins depuis l’espace de configuration de MediaSPIP.
    Pour y accéder, il suffit de se rendre dans l’espace de configuration puis de se rendre sur la page "Gestion des plugins".
    MediaSPIP est fourni par défaut avec l’ensemble des plugins dits "compatibles", ils ont été testés et intégrés afin de fonctionner parfaitement avec chaque (...)

  • Les tâches Cron régulières de la ferme

    1er décembre 2010, par

    La gestion de la ferme passe par l’exécution à intervalle régulier de plusieurs tâches répétitives dites Cron.
    Le super Cron (gestion_mutu_super_cron)
    Cette tâche, planifiée chaque minute, a pour simple effet d’appeler le Cron de l’ensemble des instances de la mutualisation régulièrement. Couplée avec un Cron système sur le site central de la mutualisation, cela permet de simplement générer des visites régulières sur les différents sites et éviter que les tâches des sites peu visités soient trop (...)

Sur d’autres sites (9364)

  • Stream frame from video to pipeline and publish it to HTTP mjpeg via ffmpeg

    18 juillet 2018, par Rafał Sardaw

    Let’s say I have very simple program which has been written in C++ with usage of OpenCV 3.4 under Windows 10.

    VideoCapture cap("test.avi");
    Mat frame;
    while(true){
       if (!cap.read(frame))  
       {
           break;
       }
       // SEND FRAME TO PIPE
    }

    It’s just simple example of reading frame by frame avi video, but in the end it’s going to be server-side application which produces modified stream from few ip cameras. I want to use html5 video tag to display output directly on website, but it’s quite hard to find useful information related with that topic ( for Windows ). If I understand it correctly I need to define pipeline and send there MJPEG stream, with help of FFMPEG, where FFMPEG will create local HTTP server on specific port. Anyone ever challenged similar task under Windows ? I guess that 80% of task is related with proper usage of ffmpeg command line tool, one of my priorities is minimal modification of application.

    So to make long story short, I have application which I can call directly from command line :

    stream_producer.exe CAMERA_1

    and I want to be able to see MJPEG stream under :

    http://localhost:1234

    which can be displayed on local website in intranet.

    Regards.

  • avfilter/vf_geq : use per-thread AVExpr for expression evaluation

    28 décembre 2019, par Marton Balint
    avfilter/vf_geq : use per-thread AVExpr for expression evaluation
    

    There was no consensus about separating AVExprState from AVExpr so here is a
    minimal patch using the existing AVExpr to fix ticket #7528.

    Signed-off-by : Marton Balint <cus@passwd.hu>

    • [DH] doc/filters.texi
    • [DH] libavfilter/vf_geq.c
  • Hardware Accelerated H264 Decode using DirectX11 in Unity Plugin for UWP

    8 janvier 2019, par rohit n

    I’ve built an Unity plugin for my UWP app which converts raw h264 packets to RGB data and renders it to a texture. I’ve used FFMPEG to do this and it works fine.

    int framefinished = avcodec_send_packet(m_pCodecCtx, &amp;packet);
    framefinished = avcodec_receive_frame(m_pCodecCtx, m_pFrame);
    // YUV to RGB conversion and render to texture after this

    Now, I’m trying to shift to hardware based decoding using DirectX11 DXVA2.0.

    Using this : https://docs.microsoft.com/en-us/windows/desktop/medfound/supporting-direct3d-11-video-decoding-in-media-foundation

    I was able to create a decoder(ID3D11VideoDecoder) but I don’t know how to supply it the raw H264 packets and get the YUV or NV12 data as output.
    (Or if its possible to render the output directly to the texture since I can get the ID3D11Texture2D pointer)

    so my question is, How do you send the raw h264 packets to this decoder and get the output from it ?

    Also, this is for real time operation so I’m trying to achieve minimal latency.

    Thanks in advance !