Recherche avancée

Médias (0)

Mot : - Tags -/metadatas

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (62)

  • La file d’attente de SPIPmotion

    28 novembre 2010, par

    Une file d’attente stockée dans la base de donnée
    Lors de son installation, SPIPmotion crée une nouvelle table dans la base de donnée intitulée spip_spipmotion_attentes.
    Cette nouvelle table est constituée des champs suivants : id_spipmotion_attente, l’identifiant numérique unique de la tâche à traiter ; id_document, l’identifiant numérique du document original à encoder ; id_objet l’identifiant unique de l’objet auquel le document encodé devra être attaché automatiquement ; objet, le type d’objet auquel (...)

  • Gestion générale des documents

    13 mai 2011, par

    MédiaSPIP ne modifie jamais le document original mis en ligne.
    Pour chaque document mis en ligne il effectue deux opérations successives : la création d’une version supplémentaire qui peut être facilement consultée en ligne tout en laissant l’original téléchargeable dans le cas où le document original ne peut être lu dans un navigateur Internet ; la récupération des métadonnées du document original pour illustrer textuellement le fichier ;
    Les tableaux ci-dessous expliquent ce que peut faire MédiaSPIP (...)

  • Des sites réalisés avec MediaSPIP

    2 mai 2011, par

    Cette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
    Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page.

Sur d’autres sites (8764)

  • lavu/pixdesc : handle xv30be in av_[read|write]_image_line

    4 décembre 2022, par Philip Langdale
    lavu/pixdesc : handle xv30be in av_read_image_line
    

    xv30be is an obnoxious format that I shouldn't have included in the
    first place. xv30 packs 3 10bit channels into 32bits and while our
    byte-oriented logic can handle Little Endian correctly, it cannot
    handle Big Endian. To avoid that, I marked xv30be as a bitstream
    format, but while that didn't produce FATE errors, it turns out that
    the existing read/write code silently produces incorrect results, which
    can be revealed via ubsan.

    In all likelyhood, the correct fix here is to remove the format. As
    this format is only used by Intel vaapi, it's only going to show up
    in LE form, so we could just drop the BE version. But I don't want to
    deal with creating a hole in the pixfmt list and all the weirdness that
    comes from that. Instead, I decided to write the correct read/write
    code for it.

    And that code isn't too bad, as long as it's specialised for this
    format, as the channels are all bit-aligned inside a 32bit word.

    • [DH] libavutil/pixdesc.c
  • swresample/resample : do not increase phase_count on exact_rational

    17 juin 2016, par Muhammad Faiz
    swresample/resample : do not increase phase_count on exact_rational
    

    high phase_count is only useful when dst_incr_mod is non zero
    in other word, it is only useful on soft compensation

    on init, it will build filter with low phase_count
    but when soft compensation is enabled, rebuild filter
    with high phase_count

    this approach saves lots of memory

    Reviewed-by : Michael Niedermayer <michael@niedermayer.cc>
    Signed-off-by : Muhammad Faiz <mfcc64@gmail.com>

    • [DH] libswresample/resample.c
    • [DH] libswresample/resample.h
  • Is there an efficient way to use ffmpeg to create a huge quantity of small video file, cut from a larger one ?

    9 mars 2024, par Giuliano Oliveri

    I'm trying to cut video files into smaller chunks. (each one being one word said in the video, so they're not all of equal size)

    &#xA;

    I've tried a lot of different approaches to try to be as efficient as possible, but I can't get the runtime to be under 2/3rd of the original video length. That's an issue because I'm trying to process 400+ hours of video.

    &#xA;

    Is there a more efficient way to do this ? Or am I doomed to run this for weeks ?

    &#xA;

    Here is the command for my best attempt so far

    &#xA;

    ffmpeg -hwaccel cuda -hwaccel_output_format cuda -ss start_timestamp -t to_timestamp -i file_name -vf "fps=30,scale_cuda=1280:720" -c:v h264_nvenc -y output_file&#xA;

    &#xA;

    Note that the machine running the code has a 4090&#xA;This command is then executed via python, which gives it the right timestamps and file paths for each smaller clip in a for loop

    &#xA;

    I think it's wasting a lot of time calling a new process each time, however I haven't been able to get better results with a split filter ; but here's the ffmpeg-python code for that attempt :

    &#xA;

    Creation of the stream :

    &#xA;

    inp = (&#xA;    ffmpeg&#xA;    .input(file_name, hwaccel="cuda", hwaccel_output_format="cuda")&#xA;    .filter("fps",fps=30)&#xA;    .filter(&#x27;scale_cuda&#x27;, &#x27;1280&#x27;,&#x27;720&#x27;)&#xA;    .filter_multi_output(&#x27;split&#x27;)&#xA;)&#xA;

    &#xA;

    Which then gets called in a for loop

    &#xA;

    (&#xA;    ffmpeg&#xA;    .filter(inp, &#x27;trim&#x27;, start=row[1][&#x27;start&#x27;], end=row[1][&#x27;end&#x27;])&#xA;    .filter(&#x27;setpts&#x27;, &#x27;PTS-STARTPTS&#x27;)&#xA;    .output(output_file,vcodec=&#x27;h264_nvenc&#x27;)&#xA;    .run()&#xA;)&#xA;

    &#xA;