Recherche avancée

Médias (3)

Mot : - Tags -/collection

Autres articles (60)

  • XMP PHP

    13 mai 2011, par

    Dixit Wikipedia, XMP signifie :
    Extensible Metadata Platform ou XMP est un format de métadonnées basé sur XML utilisé dans les applications PDF, de photographie et de graphisme. Il a été lancé par Adobe Systems en avril 2001 en étant intégré à la version 5.0 d’Adobe Acrobat.
    Étant basé sur XML, il gère un ensemble de tags dynamiques pour l’utilisation dans le cadre du Web sémantique.
    XMP permet d’enregistrer sous forme d’un document XML des informations relatives à un fichier : titre, auteur, historique (...)

  • Use, discuss, criticize

    13 avril 2011, par

    Talk to people directly involved in MediaSPIP’s development, or to people around you who could use MediaSPIP to share, enhance or develop their creative projects.
    The bigger the community, the more MediaSPIP’s potential will be explored and the faster the software will evolve.
    A discussion list is available for all exchanges between users.

  • Installation en mode ferme

    4 février 2011, par

    Le mode ferme permet d’héberger plusieurs sites de type MediaSPIP en n’installant qu’une seule fois son noyau fonctionnel.
    C’est la méthode que nous utilisons sur cette même plateforme.
    L’utilisation en mode ferme nécessite de connaïtre un peu le mécanisme de SPIP contrairement à la version standalone qui ne nécessite pas réellement de connaissances spécifique puisque l’espace privé habituel de SPIP n’est plus utilisé.
    Dans un premier temps, vous devez avoir installé les mêmes fichiers que l’installation (...)

Sur d’autres sites (6013)

  • FFmpegWrapper - get exact segment start or end times ?

    21 décembre 2015, par Stefan Kendall

    Right now, I’m using FFmpegWrapper, and I watch for changes via kernel events. This gets the segments when they’re created, but I’m not sure how accurate this is.

    Really, I want to know the presentation timestamp of when the hls segment is created. Right now I capture and encode frames manually and write packets via
    FFOutputFile *outputFile;
    [_outputFile writePacket:_packet error:&error];

    So I have each frame’s presentationTimestamp, but I don’t know which frame goes to which eventual MPEG-TS segment. Once I write to the FFOutputFile, it’s a blackbox to me.

    Is there any way to know what frame will go to what segment ahead of time, or get a callback from FFmpeg when a new segment is written ?

    Exact times are ideal. Close times are better. Watching the directory for new files via kernel events is what I have right now, so any solution of that time magnitude isn’t useful.

  • How can I use ffmpeg library with react on client side ? Any guide ? [closed]

    6 janvier 2023, par Mehdi Saqlen

    I have heard about web assembly. Web assembly allows us to use C++ libraries on browsers, so how can I use the FFmpeg library on the client-side with react.js ? If you know how to implement this please share with me what you know about this.

    


    Please share with me how can I learn FFmpeg completely with web assembly ?

    


  • Is it possible to stream the output of an ffmpeg command to a client with dot net core ?

    11 mars 2021, par Inondle

    I'm trying to take two videos and transform them with ffmpeg into a single video. It works great if you take the two videos, run them through ffmpeg and then serve that file up via an API. Unfortunately the upper range for these videos is 20 minutes, and this method takes too long to create the full video ( 30 seconds w/ ultrafast).

    


    I had an idea to stream the output of the ffmpeg command to the client which would eliminate the need to wait for ffmpeg to create the whole video. I've tried to proof this out myself and haven't had much success. It could be my inexperience with streams, or this could be impossible.

    


    Does anyone know if my idea to stream the in-progress output of ffmpeg is possible / feasible ?