Recherche avancée

Médias (0)

Mot : - Tags -/xmlrpc

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (38)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (4374)

  • WebVTT Audio Descriptions for Elephants Dream

    10 mars 2015, par silvia

    When I set out to improve accessibility on the Web and we started developing WebSRT – later to be renamed to WebVTT – I needed an example video to demonstrate captions / subtitles, audio descriptions, transcripts, navigation markers and sign language.

    I needed a freely available video with spoken text that either already had such data available or that I could create it for. Naturally I chose “Elephants Dream” by the Orange Open Movie Project , because it was created under the Creative Commons Attribution 2.5 license.

    As it turned out, the Blender Foundation had already created a collection of SRT files that would represent the English original as well as the translated languages. I was able to reuse them by merely adding a WEBVTT header.

    Then there was a need for a textual audio description. I read up on the plot online and finally wrote up a time-alignd audio description. I’m hereby making that file available under the Create Commons Attribution 4.0 license. I’ve added a few lines to the medadata headers so it doesn’t confuse players. Feel free to reuse at will – I know there are others out there that have a similar need to demonstrate accessibility features.

  • How to swtich audio stream with ffmpeg ?

    6 octobre 2022, par Jason

    I have a file which has both english and japanese audio tracks. This is the meta data of the file (using command ffmpeg -i "my_vid.mp4" :

    


    Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'my_vid.mp4':
  Metadata:
    major_brand     : isom
    minor_version   : 512
    compatible_brands: isomiso2mp41
    encoder         : Lavf58.76.100
  Duration: 00:27:13.14, start: 0.000000, bitrate: 1699 kb/s
  Chapters:
    Chapter #0:0: start 0.000000, end 263.012000
      Metadata:
        title           : Chapter 01
    Chapter #0:1: start 263.012000, end 353.019000
      Metadata:
        title           : Chapter 02
    Chapter #0:2: start 353.019000, end 891.098000
      Metadata:
        title           : Chapter 03
    Chapter #0:3: start 891.098000, end 1535.075000
      Metadata:
        title           : Chapter 04
    Chapter #0:4: start 1535.075000, end 1624.080000
      Metadata:
        title           : Chapter 05
    Chapter #0:5: start 1624.080000, end 1633.140000
      Metadata:
        title           : Chapter 06
  Stream #0:0[0x1](und): Video: hevc (Main 10) (hev1 / 0x31766568), yuv420p10le(tv), 1920x1080 [SAR 1:1 DAR 16:9], 1413 kb/s, 23.98 fps, 23.98 tbr, 16k tbn (default)
    Metadata:
      handler_name    : VideoHandler
      vendor_id       : [0][0][0][0]
  Stream #0:1[0x2](eng): Audio: aac (LC) (mp4a / 0x6134706D), 48000 Hz, stereo, fltp, 136 kb/s (default)
    Metadata:
      handler_name    : SoundHandler
      vendor_id       : [0][0][0][0]
  Stream #0:2[0x3](jpn): Audio: aac (LC) (mp4a / 0x6134706D), 48000 Hz, stereo, fltp, 137 kb/s
    Metadata:
      handler_name    : SoundHandler
      vendor_id       : [0][0][0][0]
  Stream #0:3[0x4](eng): Data: bin_data (text / 0x74786574)
    Metadata:
      handler_name    : SubtitleHandler


    


    Per the ffmpeg documentation I'm trying to switch the video's audio output to japanese. However, the output video is still in english (which it was in before). This is my current ffmpeg cmd :

    


    ffmpeg -i "my_vid.mp4" -c copy -disposition:a:1 default "output.mp4"


    


    what am I doing wrong ? Still pretty new to ffmpeg

    


    Edit :

    


    With one of the suggestions I tried adding the -map 0 option to my command

    


    ffmpeg -i "my_vid.mp4" -map 0 -c copy -disposition:a:2 default "output.mp4"


    


    but still not change. The meta data for the output video is as follows :

    


    Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'output.mp4':
  Metadata:
    major_brand     : isom
    minor_version   : 512
    compatible_brands: isomiso2mp41
    encoder         : Lavf59.33.100
  Duration: 00:27:13.14, start: 0.000000, bitrate: 1699 kb/s
  Chapters:
    Chapter #0:0: start 0.000000, end 263.012000
      Metadata:
        title           : Chapter 01
    Chapter #0:1: start 263.012000, end 353.019000
      Metadata:
        title           : Chapter 02
    Chapter #0:2: start 353.019000, end 891.098000
      Metadata:
        title           : Chapter 03
    Chapter #0:3: start 891.098000, end 1535.075000
      Metadata:
        title           : Chapter 04
    Chapter #0:4: start 1535.075000, end 1624.080000
      Metadata:
        title           : Chapter 05
    Chapter #0:5: start 1624.080000, end 1633.140000
      Metadata:
        title           : Chapter 06
  Stream #0:0[0x1](und): Video: hevc (Main 10) (hev1 / 0x31766568), yuv420p10le(tv), 1920x1080 [SAR 1:1 DAR 16:9], 1413 kb/s, 23.98 fps, 23.98 tbr, 16k tbn (default)
    Metadata:
      handler_name    : VideoHandler
      vendor_id       : [0][0][0][0]
  Stream #0:1[0x2](eng): Audio: aac (LC) (mp4a / 0x6134706D), 48000 Hz, stereo, fltp, 136 kb/s (default)
    Metadata:
      handler_name    : SoundHandler
      vendor_id       : [0][0][0][0]
  Stream #0:2[0x3](jpn): Audio: aac (LC) (mp4a / 0x6134706D), 48000 Hz, stereo, fltp, 137 kb/s
    Metadata:
      handler_name    : SoundHandler
      vendor_id       : [0][0][0][0]
  Stream #0:3[0x4](eng): Data: bin_data (gpmd / 0x646D7067)
    Metadata:
      handler_name    : SubtitleHandler
  Stream #0:4[0x5](eng): Data: bin_data (text / 0x74786574)
    Metadata:
      handler_name    : SubtitleHandler


    


  • ffmpeg subtitles to overlay by language

    21 mars 2017, par Milan Čížek

    my stream looks like this :

    Input #0, mpegts, from 'udp://@...':
     Duration: N/A, start: 19316.897278, bitrate: N/A
     Program 504
       Stream #0:0[0x13b1], 125, 1/90000: Video: mpeg2video (Main), 1 reference frame ([2][0][0][0] / 0x0002), yuv420p(tv, top first, left), 720x576 [SAR 64:45 DAR 16:9], 0/1, 25 fps, 25 tbr, 90k tbn, 50 tbc
       Stream #0:1[0x13b2], 208, 1/90000: Audio: mp2 ([3][0][0][0] / 0x0003), 48000 Hz, stereo, s16p, 256 kb/s
       Stream #0:2[0x1541](srp), 4, 1/90000: Subtitle: dvb_subtitle ([6][0][0][0] / 0x0006)
       Stream #0:3[0x1542](slv), 3, 1/90000: Subtitle: dvb_subtitle ([6][0][0][0] / 0x0006)
       Stream #0:4[0x1543](hrv), 4, 1/90000: Subtitle: dvb_subtitle ([6][0][0][0] / 0x0006)
       Stream #0:5[0x1544](cze), 3, 1/90000: Subtitle: dvb_subtitle ([6][0][0][0] / 0x0006)
       Stream #0:6[0x1545](hun), 4, 1/90000: Subtitle: dvb_subtitle ([6][0][0][0] / 0x0006)
       Stream #0:7[0x1546](ron), 3, 1/90000: Subtitle: dvb_subtitle ([6][0][0][0] / 0x0006)
       Stream #0:8[0x1547](alb), 4, 1/90000: Subtitle: dvb_subtitle ([6][0][0][0] / 0x0006)
       Stream #0:9[0x1548](bul), 5, 1/90000: Subtitle: dvb_subtitle ([6][0][0][0] / 0x0006)
       Stream #0:10[0x13b9](eng), 127, 1/90000: Subtitle: dvb_teletext ([6][0][0][0] / 0x0006)

    I try to add english subtitles into output video, but number of subtitles/languages is variable in time. I need select required subtitles by language. How can I do ? Here is my not working example. Thank you.

    ffmpeg -i "udp://@..." -map s:eng -sn -map v:0 -profile:v baseline
    -c:v libx264 -b:v 1500k -maxrate 2200k -filter_complex [0:v][0:s]overlay -c:a libfdk_aac -b:a 128k /test.ts