Recherche avancée

Médias (91)

Autres articles (44)

  • (Dés)Activation de fonctionnalités (plugins)

    18 février 2011, par

    Pour gérer l’ajout et la suppression de fonctionnalités supplémentaires (ou plugins), MediaSPIP utilise à partir de la version 0.2 SVP.
    SVP permet l’activation facile de plugins depuis l’espace de configuration de MediaSPIP.
    Pour y accéder, il suffit de se rendre dans l’espace de configuration puis de se rendre sur la page "Gestion des plugins".
    MediaSPIP est fourni par défaut avec l’ensemble des plugins dits "compatibles", ils ont été testés et intégrés afin de fonctionner parfaitement avec chaque (...)

  • Les autorisations surchargées par les plugins

    27 avril 2010, par

    Mediaspip core
    autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs

  • Librairies et binaires spécifiques au traitement vidéo et sonore

    31 janvier 2010, par

    Les logiciels et librairies suivantes sont utilisées par SPIPmotion d’une manière ou d’une autre.
    Binaires obligatoires FFMpeg : encodeur principal, permet de transcoder presque tous les types de fichiers vidéo et sonores dans les formats lisibles sur Internet. CF ce tutoriel pour son installation ; Oggz-tools : outils d’inspection de fichiers ogg ; Mediainfo : récupération d’informations depuis la plupart des formats vidéos et sonores ;
    Binaires complémentaires et facultatifs flvtool2 : (...)

Sur d’autres sites (9208)

  • Processing a video stream over websocket with opencv

    25 avril 2019, par Patrick Connors

    I’m trying to stream video over a websocket and process it server-side with Node.JS. The client is reading from a video file (.mp4) and sending it over the web socket via a stream object. However, I’m having trouble extracting frames from the stream at the server so it can be processed by opencv.

    Do I need to break the video up into frames and stream each individual frame ? What format can opencv most easily process in real time ?

    The end goal here is to enable opencv to process each frame of a video (in real time) that is being received by the server. Think I’m having some trouble understanding the paradigm here.

  • Use ffmpeg to show a webcam live stream in a browser

    20 juillet 2020, par Toast

    I have a webcam that is connected to a server and I'd like to view a live stream of it in a web browser.

    


    I'd like to include a video tag like this :

    


    <video></video>&#xA;

    &#xA;

    What is an ffmpeg command that will send a video stream to browser clients ?&#xA;I managed to record a video to disk with this command :

    &#xA;

    ffmpeg -f v4l2 -i /dev/video0 output.mkv&#xA;

    &#xA;

    I'm not sure if rtsp and ffmpeg are a good choice and I'm open for alternative suggestions.&#xA;I'm looking for a solution that is simple to setup and demo. Scalability and support for older browsers don't matter and audio isn't needed. I'd prefer a solution that sends compressed video instead of individual images (MJPG).

    &#xA;

  • Merge commit ’4537647c0429fe7c8ee655ac3fda856ba67f58a0’

    31 mars 2017, par Clément Bœsch
    Merge commit ’4537647c0429fe7c8ee655ac3fda856ba67f58a0’
    

    * commit ’4537647c0429fe7c8ee655ac3fda856ba67f58a0’ :
    fate : checkasm : Split monolithic test into individual components

    Merged-by : Clément Bœsch <cboesch@gopro.com>

    • [DH] tests/fate/checkasm.mak