Recherche avancée

Médias (5)

Mot : - Tags -/open film making

Autres articles (111)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (10508)

  • Can't compile project with ffmpeg-light

    27 octobre 2016, par wowofbob

    Compilation of any project which uses openFile function from Codec.FFmpeg.Decode fails with error :

    Couldn't match type ‘GHC.IO.Exception.IOException’ with ‘[Char]’
               arising from a functional dependency between:
                 constraint ‘mtl-2.2.1:Control.Monad.Error.Class.MonadError
                               String IO’
                   arising from a use of ‘openFile’
                 instance ‘mtl-2.2.1:Control.Monad.Error.Class.MonadError
                             GHC.IO.Exception.IOException IO’
                   at <no location="location" info="info"></no>

    As an example, compilation of this fails :

    openVideoFile :: String -> IO ()
    openVideoFile filePath = do

     initFFmpeg

     avFmtCtx &lt;- openFile filePath

     return ()

    I guess the reason is that there is no ready instance of MonadError String IO. But, when I add a dummy instance like this :

    instance MonadError String IO where
     throwError _   = undefined
     catchError _ _ = undefined

    I’m getting another error :

    Functional dependencies conflict between instance declarations:
     instance MonadError String IO
       -- Defined at src/Video/Play/Base.hs:20:10
     instance [safe] MonadError GHC.IO.Exception.IOException IO
       -- Defined in ‘Control.Monad.Error.Class’

    I don’t know how to force compiler to use MonadError String IO instace here.

  • How do I get FFMPEG Progress in order to create a progress bar ?

    4 juillet 2022, par polandeer

    I'm trying to create a simple GUI for ffmpeg but am having problems getting the progress of a command. I'm using PySide as the GUI toolkit and I'm also using python3. I'm using QProcess to run the command and would just like to be able to create a progress bar.

    &#xA;

    EDIT : Preferably I'd like to use QProgressDialog : http://www.pyside.org/docs/pyside/PySide/QtGui/QProgressDialog.html

    &#xA;

  • Create video vom rendered OpenGL frames

    10 mai 2012, par MrMuh

    i am searching for a way to create a video from a row of frames i have rendered with OpenGL and transfered to ram as int array using the glGetTexImage function. is it possible to achieve this directly in ram ( 10 secs video) or do i have to save each frame to the harddisk and encode the video afterwards ?

    i have found this sample http://cekirdek.pardus.org.tr/ ismail/ffmpeg-docs/api-example_8c-source.html in an other SO question but is this still the best way to do it ?