Recherche avancée

Médias (1)

Mot : - Tags -/biomaping

Autres articles (68)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (10883)

  • What's the ideal encoding for rendering an immediate video (e.g. preview) while waiting for the high-quality video to render ? [on hold]

    20 avril 2018, par allanbreyes

    I’m working on an application that renders an MLT (OSS non-linear video-editing engine) project on a web server, which uses ffmpeg under the hood. While waiting for the high-quality render to finish (several minutes), I need to make a "best-effort" render in parallel so that users can immediately (i.e. real-time) see the results. What encoding works best for this ?

  • How to generating waveform from video & show it with video

    25 novembre 2016, par Salil

    We are using Rails as a backend & AngularJS on Front End side in my App where we need to show Video & audio waveform of that video.

    We are using ’wavesurfer.js’ to show the waveform on Front End side & ’node-pcm’ to generate pcm from video file on BackEnd side.

    This is working as expected but in some of the videos while creating waveform from pcm data instead of showing small sine waves we get flat line.
    Also it takes too much time to show the waveform for every page reload.

    To overcome this issue we are planning to create waveform image using ffmpeg

    ffmpeg -i 'https://s3.amazonaws.com/aadasdsadsadasdas/xyz.mp4' -filter_complex showwavespic -frames:v 1 output.png

    This is working fine but it also takes too much time (Ofcourse only once ) to generate the image for remote video (i.e. We are saving videos on S3)

    Problem with this i don’t get any library to integrate the waveform image with the Video.

    Can someone suggest any better approach related to this.

  • ffmpeg video rendering command adding empty audio to end of video

    13 janvier 2020, par Martin

    I have an ffmpeg command which is supposed to take an mp3 file and image file as inputs, and render a music video with the image as the background and the video length is the exact length of the mp3 audio file input.

    I was using this command :

    ffmpeg -loop 1 -framerate 2 -i "front.jpg" -i "audioInput.mp3" -vf "scale=2*trunc(iw/2):2*trunc(ih/2),setsar=1,format=yuv420p" -c:v libx264 -preset medium -tune stillimage -crf 18 -c:a aac -b:a 320k -shortest -vf scale=1920:1080 -pix_fmt yuv420p "videoOutput.mp4"

    But the problem was that my audioInput.mp3 file is 1 minute 12 seconds long, and my output video was 1 minute 39 seconds, with an added couple seconds of silence at the end of the video.

    I asked a question on stackoverflow and it was closed/linked to this question. The accepted answer says that this command would not add extra seconds onto the end of the video :

    ffmpeg -y -loop 1 -framerate 2 -i "front.jpg" -i "maintheme.mp3" -c:v libx264 -tune stillimage -c:a aac -b:a 320k -pix_fmt yuv420p -shortest -fflags +shortest -max_interleave_delta 100M "result2.mp4"

    I tried using this command, and my output video was still 1.14 seconds long.
    I tried the command again with a different audio file (flac) and the video output had again 2 seconds of blank audio at the end. Is one of my flags causing extra space to be appended ? Can I cut the video’s length to be that of the audio file ?