Recherche avancée

Médias (0)

Mot : - Tags -/tags

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (54)

  • Le profil des utilisateurs

    12 avril 2011, par

    Chaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
    L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...)

  • Configurer la prise en compte des langues

    15 novembre 2010, par

    Accéder à la configuration et ajouter des langues prises en compte
    Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
    De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
    Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...)

  • XMP PHP

    13 mai 2011, par

    Dixit Wikipedia, XMP signifie :
    Extensible Metadata Platform ou XMP est un format de métadonnées basé sur XML utilisé dans les applications PDF, de photographie et de graphisme. Il a été lancé par Adobe Systems en avril 2001 en étant intégré à la version 5.0 d’Adobe Acrobat.
    Étant basé sur XML, il gère un ensemble de tags dynamiques pour l’utilisation dans le cadre du Web sémantique.
    XMP permet d’enregistrer sous forme d’un document XML des informations relatives à un fichier : titre, auteur, historique (...)

Sur d’autres sites (4444)

  • ffmpeg : mixing concat, apad and amerge in one call

    18 septembre 2016, par GeoffreyB

    I’m trying to merge multiple calls to ffmpeg into one single call.

    I have 2 images, 1 video, and 1 sound to merge together.

    Video : Image 1 (1sec), Image 2 (1sec — fade onto video if possible), Video
    Sound : Sound --- once video start, merge both sounds

    I am able to perform those actions separately (generating a temporary video with images + video), and then merging both sounds, but I’d like to get something faster.

    How can I merge those two filters onto only one ?

    ffmpeg -loop 1 -framerate 60 -t 1 -i thumb.jpg -t 1 -f lavfi -i aevalsrc=0 -framerate 60 -t 1 -i theme.jpg -t 1 -f lavfi -i aevalsrc=0 -i video.mov -filter_complex '[0:0] [1:0] [2:0] [3:0] [4:0] [4:1] concat=n=3:v=1:a=1' tmp.mov

    ffmpeg -i tmp.mov -i audio.mp3 -filter_complex "[0:a]apad [b]; [b][1:a]amerge[a]" -map 0:v -map "[a]" -c:v copy -c:a mp3 -ac 2 -shortest out.mov

    My guess would be something like this ffmpeg -loop 1 -framerate 60 -t 1 -i thumb.jpg -framerate 60 -t 1 -i theme.jpg -i video.mov -i audio.mp3 -filter_complex "[0:0] [1:0] [2:0] [2:a] concat=n=3:v=1:a=1" -map 2:v -map "[a]" -c:v copy -c:a mp3 -ac 2 -shortest out.mov, but this one ends up with the following error : Stream specifier ’:0’ in filtergraph description [0:0] [1:0] [2:0] [2:a] concat=n=3:v=1:a=1 matches no streams.

    Any help would be appreciated ! (also if you know how to get the fade filter in my case, it would be great !)

  • Not able to show RTSP stream with Angular

    15 mai 2020, par Q.Rey

    i'm working on a web application with angular where i need to show an rtsp stream inside my window.
I'm using JSMpeg player related to this topic : Not able to Show live camera RTSP streaming with Angular.

    



    For my websocket i used the node websocket library and i runned it like this in my cmd : node websocket-relay.js supersecret 8081 8082

    



    It detect each connection i make on it.

    



    Then for the conversion part i used FFMPEG where I convert a h264 format to mpegts (mpegvideo1 gave me an error)
I run it like this :

    



    ffmpeg -i "rtsp://myurl/media.smp" -vcodec h264 -f mpegts -max_muxing_queue_size 9999 -b 800k -r 30 http://localhost:8081/supersecret/640/480/

    



    For the angular part I have this :

    



    @ViewChild('streaming', {static: true}) streamingcanvas: ElementRef; 

constructor( ... ) { }

ngOnInit() {
    ....
    let player = new JSMpeg.Player('ws://localhost:8081/supersecret', {
        canvas: this.streamingcanvas, autoplay: true, audio: false, loop: true
      })
}



    



    Result in my window : 
Nothing happen in my canvas even if the websocket detect a connexion

    



    What did i missed to make it works and get a real video stream ?

    



    Thanks for help

    



    EDIT : My first ffmpeg command was wrong, only the audio was sent, now i got this :

    



    ffmpeg -i "rtsp://myurl/media.smp" -vcodec h264 -f mpegts -codec:v mpeg1video -s 640x360 -b: 700k -r 25 -bf 0 -codec:a mp2 -ar 44100 -ac 1 -b:a 64k -max_muxing_queue_size 9999 http://localhost:8081/supersecret/640/360/


    



    It still doesnt work but the canvas is not black anymore

    


  • how to render android screen to a web page in realtime

    14 août 2012, par Rain Lee

    i'm working on something to remote control android from web browser. something like canvas or flash will draw the android device's screen, and i want it to be very smoothly.

    as i know, we can capture android screen using frame buffer. there a lot of articles about this. But, the fps is very lot, 4 5 fbs at most. is there any way to improve ?

    will something like ffmpeg help?