Recherche avancée

Médias (1)

Mot : - Tags -/censure

Autres articles (102)

  • Multilang : améliorer l’interface pour les blocs multilingues

    18 février 2011, par

    Multilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
    Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela.

  • Des sites réalisés avec MediaSPIP

    2 mai 2011, par

    Cette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
    Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page.

  • ANNEXE : Les plugins utilisés spécifiquement pour la ferme

    5 mars 2010, par

    Le site central/maître de la ferme a besoin d’utiliser plusieurs plugins supplémentaires vis à vis des canaux pour son bon fonctionnement. le plugin Gestion de la mutualisation ; le plugin inscription3 pour gérer les inscriptions et les demandes de création d’instance de mutualisation dès l’inscription des utilisateurs ; le plugin verifier qui fournit une API de vérification des champs (utilisé par inscription3) ; le plugin champs extras v2 nécessité par inscription3 (...)

Sur d’autres sites (9999)

  • FFmpeg send stream on a web server

    29 avril 2017, par Luzwitz

    For stream my screen, i used :

    ffmpeg -s 1920x1080 -f X11grab -i :0.0+0,0 -codec:v libvpx -b:v 4M -b:a libvorbis -crf 20 capture.webm

    This command save the stream in a file : capture.webm.

    But now, I want send stream on a udp server. So i make this command :

    ffmpeg -s 1920x1080 -f X11grab -i :0.0+0,0 -codec:v libvpx -b:v 4M -b:a libvorbis -crf 20 -f webm udp://192.168.232.2:8080

    But it doesn’t run.

  • Scheduling an RTMP stream remotely - using an intermediary server for storing + sending video stream packets before deploying to streaming service

    25 février 2020, par hedgehog90

    This is more of a curiosity than something I really need, but I thought I’d ask anyway.

    If I just want setup a normal livestream, I would use something like OBS, capture my input, encode it into something manageable for my network and send it to a remote rtmp server.

    But I’d like to know if it’s possible to put an intermediary remote server between myself and the streaming service’s server. Basically so I can manage the stream (if it’s a playlist) and schedule when to send it to broadcast on the streaming service.

    It’s also worth noting that there may be limited bandwidth on the client-side (my computer), assuming the intermediary has greater bandwidth, this method should eliminate the common issue of dropping frames while streaming.

    Now for an example :

    To make it simpler, instead of using OBS + capture hardware, I’m using a video file.
    I want to encode that video in the same way that OBS does when streaming to a remote server via an rtmp protocol using ffmpeg.

    Now I upload that data, at my own rate, to a remote server that I control (running Ubuntu) for storage and eventual deployment. Importantly, I do not want or require any video-processing done on the intermediary server, as we have already encoded the data for deployment on the client-side. This is just simply managing and storing the data.

    A day later, I want to run a script on my intermediary server that will then send the processed stream data, packet by packet, to the targeted streaming server.


    I’m an experienced coder, with lots of experience with data handling and video encoding. It should be simple, but I’m not all that clued up on the way video streaming via RTMP works.

  • Live streaming from iphone To wowza server

    4 décembre 2013, par user2959377

    I need to develop an iphone app that streams live video to wowza server. For encoding the captured video in H.264 and to compress it i need to use FFmpeg. I am unable to proceed because of limited content on internet explaining compilation of FFmpeg.
    I used https://github.com/lajos/iFrameExtractor to start with compiling of FFmpeg, but i dont understand how to use the generated files in my application. I am using AVFoundation and can successfully generate the video but dont know how to compile the captured video through FFmpeg. Any link that could help in starting with compiling and using ffmpeg in iphone would be of great help.