Recherche avancée

Médias (0)

Mot : - Tags -/tags

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (105)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (10850)

  • avformat/dhav : fix backward scanning for get_duration and optimize seeking

    21 mars, par Justin Ruggles
    avformat/dhav : fix backward scanning for get_duration and optimize seeking
    

    The backwards scanning done for incomplete final packets should not
    assume a specific alignment at the end of the file. Truncated files
    result in hundreds of thousands of seeks if the final packet does not
    fall on a specific byte boundary, which can be extremely slow.
    For example, with HTTP, each backwards seek results in a separate
    HTTP request.

    This changes the scanning to check for the end tag 1 byte at a time
    and buffers the last 1 MiB to avoid additional seek operations.

    Co-authored-by : Derek Buitenhuis <derek.buitenhuis@gmail.com>
    Signed-off-by : Justin Ruggles <justinr@vimeo.com>
    Signed-off-by : Derek Buitenhuis <derek.buitenhuis@gmail.com>

    • [DH] libavformat/dhav.c
  • ffmpeg : Converting animated GIF files to video while upscaling produces a file with inaccurate colors

    14 juin 2020, par Metamoran

    I apologize if this is a dumb question, but even after using the search function I have not seen anyone asking about this.

    &#xA;&#xA;

    I'm trying to both &#xA;(1) : Convert some low-resolution animated GIF files (pixel art in particular) to video, and&#xA;(2) : Upscale them at the same time, using nearest-neighbor to preserve the hard edges.

    &#xA;&#xA;

    ffmpeg does everything with no warnings or errors whatsoever, but the end result's colors look off. If I convert without upscaling, the color accuracy is preserved. I have tried both using and NOT using "palettegen", but it does not make a difference. For brevity, I'm only pasting the lines with palettegen in them. The end results are the same either way.

    &#xA;&#xA;

    This is what I've been using for upscaling :

    &#xA;&#xA;

    ffmpeg -i input.gif -c:v libx264 -b:v 10000K -y -vf "split[s0][s1];[s0]palettegen[p];[s1][p]paletteuse,scale=2*iw:2*ih:flags=neighbor" output.mp4&#xA;

    &#xA;&#xA;

    This is what I used for testing conversion (with no upscaling) :

    &#xA;&#xA;

    ffmpeg -i input.gif -c:v libx264 -b:v 10000K -y -vf "split[s0][s1];[s0]palettegen[p];[s1][p]paletteuse" output.mp4&#xA;

    &#xA;&#xA;

    Here's the input file :

    &#xA;&#xA;

    Original animated GIF file

    &#xA;&#xA;

    Here's a screenshot of how the final video looks if I don't upscale (colors look exactly like in the input file) :

    &#xA;&#xA;

    Screenshot - Final - No Upscaling

    &#xA;&#xA;

    And here's the result if I upscale (2x Nearest-Neighbor upscaling, with the screenshot downsized 50% to make comparison easier. Colors were not altered during the process.) :

    &#xA;&#xA;

    Screenshot - Final - 2x Upscaling (Nearest-Neighbor) [Downsized]

    &#xA;&#xA;

    Folder with all relevant files :&#xA;Google Drive

    &#xA;&#xA;

    Is there something I'm missing ? Or is there some sort of technical limitation, a step that will alter the colors of the video no matter what I try ? I'm not technically inclined, I'd like to know if that is the case. Thank you for your time.

    &#xA;

  • Join 8 mono channels into 7.1 audio stream

    10 juin 2020, par Rafal B

    I'm trying to join 8 mono channels into 7.1 channels layout :

    &#xA;&#xA;

    ffmpeg -i L.ac3 -i R.ac3 -i C.ac3 -i Sub.ac3 -i BL.ac3 -i BR.ac3 -i SL.ac3 -i SR.ac3 -filter_complex "[0:a][1:a][2:a][3:a][4:a][5:a][6:a][7:a]join=inputs=8:channel_layout=7.1[a]"&#xA;-map "[a]" final-output.ac3&#xA;

    &#xA;&#xA;

    but I'm getting :

    &#xA;&#xA;

    Stream mapping:&#xA;  Stream #0:0 (ac3) -> join:input0&#xA;  Stream #1:0 (ac3) -> join:input1&#xA;  Stream #2:0 (ac3) -> join:input2&#xA;  Stream #3:0 (ac3) -> join:input3&#xA;  Stream #4:0 (ac3) -> join:input4&#xA;  Stream #5:0 (ac3) -> join:input5&#xA;  Stream #6:0 (ac3) -> join:input6&#xA;  Stream #7:0 (ac3) -> join:input7&#xA;  join -> Stream #0:0 (ac3)&#xA;Press [q] to stop, [?] for help&#xA;Output #0, ac3, to &#x27;final-output.ac3&#x27;:&#xA;  Metadata:&#xA;    encoder         : Lavf58.29.100&#xA;    Stream #0:0: Audio: ac3, 48000 Hz, **5.1(side)**, fltp, 640 kb/s (default)&#xA;    Metadata:&#xA;      encoder         : Lavc58.54.100 ac3&#xA;

    &#xA;&#xA;

    Why the output file is 5.1(side) ?

    &#xA;&#xA;

    Audio&#xA;Format                                   : AC-3&#xA;Format/Info                              : Audio Coding 3&#xA;Commercial name                          : Dolby Digital&#xA;Duration                                 : 54 min 5 s&#xA;Bit rate mode                            : Constant&#xA;Bit rate                                 : 640 kb/s&#xA;Channel(s)                               : 6 channels&#xA;Channel layout                           : L R C LFE Ls Rs&#xA;Sampling rate                            : 48.0 kHz&#xA;Frame rate                               : 31.250 FPS (1536 SPF)&#xA;Compression mode                         : Lossy&#xA;Stream size                              : 248 MiB (100%)&#xA;Service kind                             : Complete Main&#xA;

    &#xA;&#xA;

    I did not found anything that would explain this behavior.&#xA;I'm using latest ffmpeg and tried different methods : join, amerge. Always output file is 5.1(side)

    &#xA;