Recherche avancée

Médias (0)

Mot : - Tags -/utilisateurs

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (77)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (11246)

  • Defining moment of the audio attenuation through ffmpeg

    23 août 2016, par riki-tik

    There are audio tracks of different lengths in m4a format. And there’s ffmpeg library for working with the media. Many of the tracks have the effect of "decay" in the end, and it is necessary to determine at what point it occurs (determined once and the value entered in the database along with other information about the track). Those. we must somehow determine that the track begins to fade, and its volume reached 30% compared to the total volume of the song. Is it possible to solve by means of ffmpeg, and if so, how ?

  • How can I segment a ts file on scene change detection using FFmpeg ?

    20 septembre 2020, par Mike Davis

    I am either not asking the question in a way Google can understand, or no one has asked this, as every issue I can find is in regards to outputting images of each scene. I want to output video segments…

    


    I have an input video that is basically a slide show, except the slides coincide with songs, so they are not at regular intervals. I would like to segment and create a sequence of ts files that are split based on a scene change threshold, and have a separate ts file for each song.

    


  • ffmpeg amerge prefer longest audio track

    4 décembre 2013, par Adam Chance

    I'm trying to combine two audio tracks in ffmpeg with amerge, but it is only as long as the shortest feature. The ffmpeg wiki says that this is the behaviour of the amerge filter, but I need the output to be as long as the longest audio track. The code I'm using is

    ffmpeg -i audio.flac -i song.flac -filter_complex amerge -acodec mp2 -b:a 128k audiotrack.mp2

    Console output :

       ffmpeg version N-58688-gc46ab34 Copyright (c) 2000-2013 the FFmpeg developers
       built on Dec  1 2013 14:39:22 with gcc 4.7 (Ubuntu/Linaro 4.7.3-1ubuntu1)
       configuration: --enable-outdev=alsa --enable-indev=alsa --enable-gpl --enable-x11grab --enable-libpulse --enable-libopus --enable-libvorbis --enable-libtheora --enable-pthreads
       libavutil      52. 56.100 / 52. 56.100
       libavcodec     55. 44.100 / 55. 44.100
       libavformat    55. 22.100 / 55. 22.100
       libavdevice    55.  5.102 / 55.  5.102
       libavfilter     3. 91.100 /  3. 91.100
       libswscale      2.  5.101 /  2.  5.101
       libswresample   0. 17.104 /  0. 17.104
       libpostproc    52.  3.100 / 52.  3.100
       Input #0, flac, from 'audio.flac':
       Metadata:
       ENCODER         : Lavf55.22.100
       Duration: 00:00:04.14, bitrate: 172 kb/s
       Stream #0:0: Audio: flac, 16000 Hz, mono, s16
       Input #1, flac, from 'song.flac':
       Duration: 00:07:38.04, bitrate: 676 kb/s
       Stream #1:0: Audio: flac, 44100 Hz, stereo, s16
       Stream #1:1: Video: mjpeg, yuvj444p(pc), 500x500 [SAR 28:28 DAR 1:1], 90k tbr, 90k tbn, 90k tbc
       Metadata:
       comment         : Cover (front)
       File 'audiotrack.mp2' already exists. Overwrite ? [y/N] y
       [Parsed_amerge_0 @ 0x317f580] No channel layout for input 1
       Output #0, mp2, to 'audiotrack.mp2':
       Metadata:
       encoder         : Lavf55.22.100
       Stream #0:0: Audio: mp2, 16000 Hz, stereo, s16, 128 kb/s (default)
       Stream mapping:
       Stream #0:0 (flac) -> amerge:in0
       Stream #1:0 (flac) -> amerge:in1
       amerge -> Stream #0:0 (mp2)
       Press [q] to stop, [?] for help
       size=      65kB time=00:00:04.14 bitrate= 128.9kbits/s