Recherche avancée

Médias (39)

Mot : - Tags -/audio

Autres articles (112)

  • Personnaliser en ajoutant son logo, sa bannière ou son image de fond

    5 septembre 2013, par

    Certains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;

  • Les tâches Cron régulières de la ferme

    1er décembre 2010, par

    La gestion de la ferme passe par l’exécution à intervalle régulier de plusieurs tâches répétitives dites Cron.
    Le super Cron (gestion_mutu_super_cron)
    Cette tâche, planifiée chaque minute, a pour simple effet d’appeler le Cron de l’ensemble des instances de la mutualisation régulièrement. Couplée avec un Cron système sur le site central de la mutualisation, cela permet de simplement générer des visites régulières sur les différents sites et éviter que les tâches des sites peu visités soient trop (...)

  • Ecrire une actualité

    21 juin 2013, par

    Présentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
    Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
    Vous pouvez personnaliser le formulaire de création d’une actualité.
    Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...)

Sur d’autres sites (6344)

  • Ubuntu ffmpeg command -i not found

    12 avril 2016, par Gerwin

    I’m a beginner with Ubuntu and I need to setup a streaming server for my company, I’ve installed NGINX and FFMPEG, but when I call ffmpeg -i in the ~/ffmpeg/ffmpeg directory it returns an error command not found but when I call ./ffmpeg -i it returns a list with configurations.. why does ffmpeg -i not work and how can I fix it ?

    I think that the Path Enviroment Variable is incorrect but how would I go abouts changing said variable ? I’m not that experienced with Ubuntu / CMD programming / FFMPEG configuration.

    Sources - https://trac.ffmpeg.org/wiki/CompilationGuide/Ubuntu
    https://github.com/arut/nginx-rtmp-module/wiki/Control-module
    and http://docs.unified-streaming.com/tutorials/live/broadcast-247.html#continuous-timestamps

  • How to use yadif filter in ffmpeg ?

    2 juin 2015, par Pavel

    I write application on C++ with ffmpeg. I read interlaced frames with opencv VideoCapture and convert it to AVFrame for use yadif filter.
    Can you give me simple example with yadif filter using ? filtering_video.c from ffmpeg docs is too broad

  • WebRTC Multi-Stream recording

    11 janvier 2021, par Tim Specht

    I'm currently trying to build a WebRTC streaming architecture that contains multiple users streaming content from their camera in the same "room" and a SFU / MCU on server-side "recording" the incoming video packets, merging them into one image and re-distributing them to the viewers as either RTMP or HLS for added scalability.

    


    Upon doing some initial research on this, Janus Gateway seems like a good fit for this given it's wide adoption across the space + their (seemingly) extensible plugin architecture. Thus, I'm currently trying to figure out what a recommended architecture for my use-case would look like.
I looked at the following plugins :

    


    


    While Janus and the Streaming plugin seem like a good start to get the broadcasting aspect within the group of casters in the room, I'm trying to piece together how I could combine the different video sources into a combined one (split horizontally for example if there are 2 casters active) and retransmit the final result as something optimized for broadcast-consumption like HLS. Some of the ways I could imagine doing that :

    


      

    • Implement a custom Janus plugin that transcodes the incoming buffers on the gateway itself
    • 


    • Forwarding the incoming packets via RTP to a Transcoding server

        

      • In this specific case I am not sure what would be best to implement that ? Are the video frames different tracks ? Could I stream all of them to the same port and have ffmpeg or something similar take care of the merging for me ?
      • 


      


    •