Recherche avancée

Médias (1)

Mot : - Tags -/portrait

Autres articles (109)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

  • Emballe médias : à quoi cela sert ?

    4 février 2011, par

    Ce plugin vise à gérer des sites de mise en ligne de documents de tous types.
    Il crée des "médias", à savoir : un "média" est un article au sens SPIP créé automatiquement lors du téléversement d’un document qu’il soit audio, vidéo, image ou textuel ; un seul document ne peut être lié à un article dit "média" ;

  • L’utiliser, en parler, le critiquer

    10 avril 2011

    La première attitude à adopter est d’en parler, soit directement avec les personnes impliquées dans son développement, soit autour de vous pour convaincre de nouvelles personnes à l’utiliser.
    Plus la communauté sera nombreuse et plus les évolutions seront rapides ...
    Une liste de discussion est disponible pour tout échange entre utilisateurs.

Sur d’autres sites (10718)

  • MP4Box Resolution unmatched between representation

    30 janvier 2018, par Massimo Vantaggio

    for one of the last stability tests i try with two representation instead the only one of before to get the adaptive bitrate streaming .
    Below my encoding command :

    ffmpeg -y -i $name -i logo.png -c:a aac -b:a 256k -ar 48000 -ac 2 -async 1 -c:v libx264 -x264opts keyint=$GOP:min-keyint=$GOP:no-scenecut -bf 0 -r $FPSC -b:v 1060k -maxrate 1060k -bufsize 530k -profile:v main -t $FDUR -filter_complex "[0:v][1:v]overlay=main_w-overlay_w-10:10,scale=-1:478" format480.mp4

    ffmpeg -y -i $name -i logo.png -c:a aac -b:a 384k -ar 48000 -ac 2 -async 1 -c:v libx264 -x264opts keyint=$GOP:min-keyint=$GOP:no-scenecut -bf 0 -r $FPSC -b:v 2400k -maxrate 2400k -bufsize 1200k -profile:v main -t $FDUR -filter_complex "[0:v][1:v]overlay=main_w-overlay_w-10:10,scale=-1:1080" format1080.mp4

    If for the first rapresentation i use 480p ffmpeg give me this error :

    width not divisible by 2 (853x480)
    Error initializing output stream

    If i use for first representation 478p ffmpeg run correctly all two encoding but after when i try to load these two files on MP4Box to dash them live with the following command :

    MP4Box -dash-live 8000 -subdur 8000 -profile dashavc264:live -mpd-refresh 240.0 -time-shift 24 -min-buffer 4000 -insert-utc -no-cache -out manifest.mpd format1080.mp4#video format480.mp4#video format1080.mp4#audio format480.mp4#audio

    the error come back into mp4box :
    "files have not-proportional layout 1920 x 1080 vs 849 x 478 but sample size and aspect ratio match, assuming precision issue"

    I would like to understand what i don’t know about, which are the resolutions that match, i understand that some movies have atypical resolution for example 1040 or 432 but the input video for this test is correct 1920 X 1080 and i wish to compress/encode it for dash and to create another representation with 480p, could i ask where I’m wrong ?
    Thanks !
    Massimo

  • How to copy video duration to the output file with ffmpeg ? [closed]

    5 novembre 2024, par user28147375

    I want to copy the input's duration to the output. Is there even a way in ffmpeg to achieve this ?
There is nothing about this in the docs.

    


    I'm currently using these flags :

    


    const ffmpegProcess = cp.spawn(ffmpegPath, [
       '-i', `pipe:3`,
       '-i', `pipe:4`,
       '-map', '0:v:0',
       '-map', '1:a:0',
       '-c:v', 'copy',
       '-c:a', 'aac',
       '-crf', '27',
       '-pix_fmt', 'yuv420p',
       '-preset', 'veryfast',
       '-movflags', 'frag_keyframe+empty_moov',
       '-f', 'mp4',
       '-shortest',
        '-'
    ], {
        windowsHide: true,
        stdio: [
            'pipe', 'pipe', 'inherit', 'pipe', 'pipe'
        ],
    });


    


    The problem :

    


    Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'pipe:3':
  Metadata:
    major_brand     : dash
    minor_version   : 0
    compatible_brands: iso6avc1mp41
    creation_time   : 2024-10-05T10:39:09.000000Z
  Duration: 00:02:18.14, start: 0.000000, bitrate: N/A
Stream #0:0[0x1](und): Video: h264 (Main) (avc1 / 0x31637661), yuv420p(tv, bt709, progressive), 1280x720 [SAR 1:1 DAR 16:9], 1 kb/s, 23.98 fps, 23.98 tbr, 24k tbn (default)


    


    Output #0, mp4, to 'pipe:':
  Metadata:
    major_brand     : dash
    minor_version   : 0
    compatible_brands: iso6avc1mp41
    encoder         : Lavf60.3.100
  ---> (DURATION MISSING) <---
Stream #0:0(und): Video: h264 (Main) (avc1 / 0x31637661), yuv420p(tv, bt709, progressive), 1280x720 [SAR 1:1 DAR 16:9], q=2-31, 1 kb/s, 23.98 fps, 23.98 tbr, 24k tbn (default)


    


  • avformat/matroskaenc : Write SeekHead when livestreaming

    26 avril 2020, par Andreas Rheinhardt
    avformat/matroskaenc : Write SeekHead when livestreaming
    

    Commit 6fd300ac6c2c3871736ce0e6df95603255004dc6 added support for WebM
    Chunk livestreaming ; in this case, both the header as well as each
    Cluster is written to a file of its own, so that even if the AVIOContext
    seems seekable, the muxer has to behave as if it were not. Yet one of
    the added checks makes no sense : It ensures that no SeekHead is written
    preliminarily (and hence no SeekHead is written at all) if the option
    for livestreaming is set, although one should write the SeekHead in this
    case when writing the Header. E.g. the WebM-DASH specification [1]
    never forbids writing a SeekHead and in some instances (that don't apply
    here) even requires it (if Cues are written after the Clusters).

    [1] : https://sites.google.com/a/webmproject.org/wiki/adaptive-streaming/webm-dash-specification

    Signed-off-by : Andreas Rheinhardt <andreas.rheinhardt@gmail.com>

    • [DH] libavformat/matroskaenc.c