Recherche avancée

Médias (91)

Autres articles (59)

  • Participer à sa traduction

    10 avril 2011

    Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
    Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
    Actuellement MediaSPIP n’est disponible qu’en français et (...)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (4523)

  • How can I apply complex filters more than once with different parameters while avoiding "too many inputs" errors

    15 mai 2019, par Hugh Walxet

    I’m trying to apply the displace complex filter more than once in a video, at specific intervals with no proportional relationship. In each instance, I want to apply the displace filter with slightly different parameters. If I list it twice in the commands for the complex_filter, I get an error saying I have too many inputs.

    I might as well ask, separately, how I could apply the same filter with the same parameters more than once in a video, without re-iterating the same filter more than once in the command line. Put differently, how do I run a filter as specific times without writing the command several times sequentially, each with a different trigger time ?

    C:\Users\Me>ffmpeg -i c:\users\Me\desktop\house2.mp4 -i c:\users\Me\desktop\house3.mp4 -i c:users\Me\desktop\house4.mp4 -filter_complex "shuffleframes=enable='between(t,21,27)':mapping=0 9 2 1 10 5 8 6 7 4 3, shuffleframes=enable='between(t,3,7)':mapping=0 4 9 1 10 5 8 6 2 7 4 3, shuffleframes=enable='between(t,15,19)':mapping=0 6 2 1 10 5 8 3 7 4 9, [0][1][2] displace=enable='between(t,9,10)':edge=wrap, [0][1][2] displace=enable='between(t,20,21)':edge=smear" c:\users\Me\desktop\houseglitch.mp4
  • Crash while loading JNI Library

    23 juin 2016, par Amira Elsayed Ismail

    I am using ffmpeg4android_lib to compress video in my android application, it is working in all devices but it does not work in s6 edge and s7 edge

    my code as following :

    String inputFile = FileManager.getInstance().getRealPathFromVideoUri(context, video);
                       Log.i("INPUT FILE PATH", inputFile);

                       LoadJNI vk = new LoadJNI();
                       try {
                           String workFolder = context.getApplicationContext().getFilesDir().getAbsolutePath();
                           String outputFile = FileManager.getInstance().getFileFullName(ForSaleConstants.VIDEO_FOLDER,
                                   String.format(ForSaleConstants.VIDEO_NAME_FILE_FORMAT,
                                           ForSaleConstants.VIDEO_NAME_FILE_NAME_PREFIX, System.currentTimeMillis()));
                           String complexCommand[] = {
                                   "ffmpeg", "-y"
                                   , "-i", inputFile
                                   , "-strict", "experimental"
                                   , "-s", "320x240"
                                   , "-r", "25"
                                   , "-aspect", "4:3"
                                   , "-ab", "48000"
                                   , "-ac", "2"
                                   , "-vcodec", "mpeg4"
                                   , "-movflags", "+faststart"
                                   , "-ar", "22050"
                                   , "-b", "2097k"
                                   , outputFile};
                           vk.run(complexCommand, workFolder, context.getApplicationContext());
                           Log.i("OUTPUT FILE PATH", outputFile);
                           return outputFile;
                       } catch (Throwable e) {
                           ForSaleServerManager.getInstance().logAndroidError("Couldn't compress video file");
                           return null;
                       }
  • Does Facebook multicast or unicast the live videos to its viewers ?

    14 avril 2018, par Kamran Zahoor

    This is how a live stream goes from one broadcaster to millions of viewers :

    1. A broadcaster starts a live video on their phone.
    2. The phone sends a RTMP stream to a Live Stream server.
    3. The Live Stream server decodes the video and transcodes to multiple bit rates.
    4. For each bit rate a set of one-second MPEG-DASH segments is continuously produced.
    5. Segments are stored in a datacenter cache.
    6. From the datacenter cache segments are sent to caches located in the points of presence (a PoP cache).
    7. On the view side the viewer receives a Live Story.
    8. The player on their device starts fetching segments from a PoP cache at a rate of one per second.

    My question is simple. After the step 6, does PoP cache/Edge cache/eNB (edge layer node) multicast a live video content to multiple viewers or unicast each user separately (opening up seperate streams for each user) ?