Recherche avancée

Médias (91)

Autres articles (31)

  • Librairies et binaires spécifiques au traitement vidéo et sonore

    31 janvier 2010, par

    Les logiciels et librairies suivantes sont utilisées par SPIPmotion d’une manière ou d’une autre.
    Binaires obligatoires FFMpeg : encodeur principal, permet de transcoder presque tous les types de fichiers vidéo et sonores dans les formats lisibles sur Internet. CF ce tutoriel pour son installation ; Oggz-tools : outils d’inspection de fichiers ogg ; Mediainfo : récupération d’informations depuis la plupart des formats vidéos et sonores ;
    Binaires complémentaires et facultatifs flvtool2 : (...)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (5175)

  • ffmpeg - when merging an image and audio, audio gets shortened

    25 août 2014, par Gary

    I am trying to merge a png image with 11 seconds of audio and create an mp4 file. When I execute ffmpeg I end up with a total duration of 10 seconds for the mp4 file. The command I’m using is...

    ffmpeg -r 6 -loop 1 -i "image1.png" -i "audio1.wav" out.mp4

    UPDATE : Here is the log that is produced...

    FFmpeg version SVN-r15986, Copyright (c) 2000-2008 Fabrice Bellard, et al.
     configuration: --extra-cflags=-fno-common --enable-memalign-hack --enable-pthr
     eads --enable-libmp3lame --enable-libxvid --enable-libvorbis --enable-libtheora
     --enable-libspeex --enable-libfaac --enable-libgsm --enable-libx264 --enable-lib
    schroedinger --enable-avisynth --enable-swscale --enable-gpl
         libavutil     49.12. 0 / 49.12. 0
         libavcodec    52. 6. 0 / 52. 6. 0
         libavformat   52.23. 1 / 52.23. 1
         libavdevice   52. 1. 0 / 52. 1. 0
         libswscale     0. 6. 1 /  0. 6. 1
         built on Dec  3 2008 01:59:37, gcc: 4.2.4
    Input #0, image2, from 'image1.png':
    Duration: 00:00:00.16, start: 0.000000, bitrate: N/A
    Stream #0.0: Video: png, rgb32, 400x300,  6.00 tb(r)
    Input #1, wav, from 'audio1.wav':
     Duration: 00:00:11.07, bitrate: 88 kb/s
       Stream #1.0: Audio: pcm_u8, 11025 Hz, mono, s16, 88 kb/s
    File 'out.mp4' already exists. Overwrite ? [y/N] y
    Output #0, mp4, to 'out.mp4':
       Stream #0.0: Video: mpeg4, yuv420p, 400x300, q=2-31, 200 kb/s,  6.00 tb(c)
       Stream #0.1: Audio: libfaac, 11025 Hz, mono, s16, 64 kb/s
    Stream mapping:
     Stream #0.0 -> #0.0
     Stream #1.0 -> #0.1
    Press [q] to stop encoding
    frame=    1 fps=  0 q=4.1 Lsize=      42kB time=0.17 bitrate=2063.7kbits/s
    video:14kB audio:26kB global headers:0.kB muxing overhead 4.894235%

    I have also tried using

    ffmpeg -loop 1 -i "image1.png" -i "audio1.wav" -t 11 out.mp4

    This command does create an mp4 of 11 seconds but the audio is still cut off at 10 seconds.

    Why is the audio being cutoff at 10 seconds ?

    Thanks,
    Gary

  • getting video file duration from adb shell

    2 août 2014, par Ganesh Sonthi

    I am writing some code using Ui Automator in Android which needs to play video files until END. For most of the files i am able to get the duration in Right bottom of the player and able to give Sleep duration as same of that.

    But for some of the files [mpg] the playback and total duration displaying as 0.00. VLC-Android and PC will be able to display the duration properly like 23seconds .. etc.. I already tried MediaMetaDataRetriever method as mentioned in How to get length in milliseconds of video from URL without video view in Android ? but here also i got ’0’ as duration.

    So, in this case i need some sort of solution which will be able to provide me some solution to get the duration of the file - Either by using adb shell or by passing some commands or some APK which can display duration and can be invoked by command line along with file URI.

    Can anyone please suggest some method.

  • SegmentedIndexBox (SIDX) not generated when using WEBM over DASH

    11 juillet 2014, par Flock Dawson

    I’m trying to get the Industry Format DASH player to work with WEBM audio/video files. However, I’m running in the same error again and again, and Google doesn’t seem to give much help.

    To start with, I created different streams of the same file (different resolutions and bitrates) using this tutorial : https://developer.mozilla.org/en-US/docs/Web/HTML/DASH_Adaptive_Streaming_for_HTML_5_Video

    Then, I downloaded the Industry Format DASH player (http://dashif.org/software/) and pointed it to the DASH manifest I created. When I try to play the video in Chrome, I get the following log :

    Parsing complete: ( xml2json: 3ms, objectiron: 2ms, total: 0.005s) dash.all.js:3
    Manifest has loaded. dash.all.js:3
    MediaSource is open! dash.all.js:3
    Event {clipboardData: undefined, path: NodeList[0], cancelBubble: false, returnValue: true, srcElement: MediaSource…}
    dash.all.js:3
    Video codec: video/webm;codecs="vp8" dash.all.js:3
    No text tracks. dash.all.js:3
    Audio codec: audio/webm;codecs="vorbis" dash.all.js:3
    Duration successfully set to: 27.2 dash.all.js:3
    Perform SIDX load: https://*****/street_orig_125k_final.webm dash.all.js:3
    Perform SIDX load: https://*****/street_audio_final.webm dash.all.js:3
    Uncaught RangeError: Offset is outside the bounds of the DataView

    From this log, I distilled that the manifest is fetched and processed correctly, but something goes wrong when trying to process the SIDX (SegmetIndexBox). I tried another (third-party) source, which works perfectly. I analysed the response returned by the server when trying to fetch the SIDX, and when converted to a readable presentation, the text ’Dsidx’ can be found in this response. So, I analyzed the WEBM file I provide (hexdump and grep), but I cannot find such a SIDX. My conclusion is that the SIDX is never added to the WEBM file.

    From the tutorial I used, I guess the generation of the SIDX is handled by the samplemuxer command, which does not offer any additional parameters. Is there anyone who has more experience in generating this SIDX ?