Recherche avancée

Médias (2)

Mot : - Tags -/doc2img

Autres articles (48)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

  • Demande de création d’un canal

    12 mars 2010, par

    En fonction de la configuration de la plateforme, l’utilisateur peu avoir à sa disposition deux méthodes différentes de demande de création de canal. La première est au moment de son inscription, la seconde, après son inscription en remplissant un formulaire de demande.
    Les deux manières demandent les mêmes choses fonctionnent à peu près de la même manière, le futur utilisateur doit remplir une série de champ de formulaire permettant tout d’abord aux administrateurs d’avoir des informations quant à (...)

  • Mediabox : ouvrir les images dans l’espace maximal pour l’utilisateur

    8 février 2011, par

    La visualisation des images est restreinte par la largeur accordée par le design du site (dépendant du thème utilisé). Elles sont donc visibles sous un format réduit. Afin de profiter de l’ensemble de la place disponible sur l’écran de l’utilisateur, il est possible d’ajouter une fonctionnalité d’affichage de l’image dans une boite multimedia apparaissant au dessus du reste du contenu.
    Pour ce faire il est nécessaire d’installer le plugin "Mediabox".
    Configuration de la boite multimédia
    Dès (...)

Sur d’autres sites (3865)

  • x264 on Ubuntu video bad/corrupted

    6 septembre 2013, par Ryzone

    I am trying to use command line x264 to produce a blu-ray compatible file for use in Adobe Encore. For the source file I've tried both ProRes and mpeg2, both 1080p24. Both files import into Encore fine (no transcoding needed which is great) but the ProRes version is pink and grey "static" and the mpeg2 is just a bunch of green/black lines. The exact same files and the exact same commands on my Win7 PC come out fine. I'm only doing a 10 sec sample of the complete 90min movie. I'd love for it to work on Ubuntu cause it is running a new i7 haswell that encodes much quicker than my PC (many hours difference in encoding time)

    Ubuntu 13.04

    x264 0.135.2 f0c1c53<br />
    built on Jul 24 2013, gcc: 4.7.3<br />
    configuration: --bit-depth=8 --chroma-format=all<br />
    x264 license: GPL version 2 or later

    command:
       x264 --bitrate 30000 --preset veryslow --tune film --bluray-compat --fps 24000/1001 --force-cfr --bframes 3 --ref 4 --muxer raw --no-weightb --weightp 0 --b-pyramid none --vbv-maxrate 40000 --vbv-bufsize 30000 --level 4.1 --profile high --keyint 24 --min-keyint 1 --open-gop --slices 4 --colorprim "bt709" --transfer "bt709" --colormatrix "bt709" --sar 1:1  -o output.264 --input-res 1920x1080 sample.mov

    (if it would work I'd be doing two pass encoding)

    I am able to encode the sample file with ffmpeg to h264 (if that helps).

  • How to use ffmpeg to upscale video resolution with anime4k ?

    29 juillet 2023, par Ironbox

    In Vapoursynth, it is convenient to download and use plugins to change the frame rate of videos. However, it seems that using FFmpeg has more limitations (or maybe I haven't found the right method). Anime4K is a video enhancement algorithm suitable for anime and similar videos. In MPV, their plugins can be imported and used for real-time frame rate conversion.

    &#xA;

    In FFmpeg, how can I use the algorithms in glsl files to change the video frame rate, instead of using FFmpeg's built-in algorithms ?

    &#xA;

    In FFmpeg, i can use libplacebo filters can also be used to apply GLSL shaders. In my tests, using command like :

    &#xA;

    libplacebo=custom_shader_path=Anime4K_Upscale_CNN_x2_VL.glsl&#xA;

    &#xA;

    this leads to noticeable GPU usage, but the output video resolution remains the same as the original.

    &#xA;

    I can pass in the w and h parameters when calling the libplacebo filter :

    &#xA;

    libplacebo=w=iw*2:h=ih*2:custom_shader_path=shaders/Anime4K_Upscale_CNN_x2_VL.glsl&#xA;

    &#xA;

    This achieves the purpose of super resolution, but is it essentially using anime4k for upscaling behind the processing ?&#xA;Is it using the upscaling algorithm in libplacebo first, before applying anime4k ? How can I achieve my original goal that only use anime4k to upscale ?&#xA;here's my full command (in python) :

    &#xA;

    [&#xA;    &#x27;ffmpeg -hide_banner&#x27;,&#xA;    &#x27;-hwaccel&#x27;, &#x27;cuda&#x27;,&#xA;    &#x27;-i&#x27;, &#x27;"{input_ab_path}"&#x27;,&#xA;    &#x27;-filter_complex&#x27;,&#xA;    &#x27;"[0:v]libplacebo=custom_shader_path=libplacebo=custom_shader_path=shaders/Anime4K_Upscale_CNN_x2_VL.glsl,subtitles="{sub_file}":si=0[out]"&#x27;,&#xA;    &#x27;-map&#x27;, &#x27;0:a&#x27;,&#xA;    &#x27;-map&#x27;, &#x27;"[out]"&#x27;,&#xA;    &#x27;-c:v&#x27;, &#x27;libsvtav1&#x27;,&#xA;    &#x27;-svtav1-params&#x27;, &#x27;scm=2:scd=1:enable-overlays=1:enable-tf=0:tune=0:preset=7:crf=18&#x27;,&#xA;    &#x27;-c:a&#x27;, &#x27;libvorbis&#x27;,&#xA;    &#x27;-qscale:a&#x27;, &#x27;10&#x27;,&#xA;    &#x27;-pix_fmt&#x27;, &#x27;yuv420p10le&#x27;,&#xA;    &#x27;-y&#x27;, &#x27;"{output_ab_path}"&#x27;&#xA;]&#xA;

    &#xA;

  • How to use ffmpeg to upscale video resolution with libplacebo ?

    30 juillet 2023, par Ironbox

    In Vapoursynth, it is convenient to download and use plugins to change the frame rate of videos. However, it seems that using FFmpeg has more limitations (or maybe I haven't found the right method). Anime4K is a video enhancement algorithm suitable for anime and similar videos. In MPV, their plugins can be imported and used for real-time frame rate conversion.

    &#xA;

    In FFmpeg, how can I use the algorithms in glsl files to change the video frame rate, instead of using FFmpeg's built-in algorithms ?

    &#xA;

    In FFmpeg, i can use libplacebo filters can also be used to apply GLSL shaders. In my tests, using command like :

    &#xA;

    libplacebo=custom_shader_path=Anime4K_Upscale_CNN_x2_VL.glsl&#xA;

    &#xA;

    this leads to noticeable GPU usage, but the output video resolution remains the same as the original.

    &#xA;

    I can pass in the w and h parameters when calling the libplacebo filter :

    &#xA;

    libplacebo=w=iw*2:h=ih*2:custom_shader_path=shaders/Anime4K_Upscale_CNN_x2_VL.glsl&#xA;

    &#xA;

    This achieves the purpose of super resolution, but is it essentially using anime4k for upscaling behind the processing ?&#xA;Is it using the upscaling algorithm in libplacebo first, before applying anime4k ? How can I achieve my original goal that only use anime4k to upscale ?&#xA;here's my full command (in python) :

    &#xA;

    [&#xA;    &#x27;ffmpeg -hide_banner&#x27;,&#xA;    &#x27;-hwaccel&#x27;, &#x27;cuda&#x27;,&#xA;    &#x27;-i&#x27;, &#x27;"{input_ab_path}"&#x27;,&#xA;    &#x27;-filter_complex&#x27;,&#xA;    &#x27;"[0:v]libplacebo=custom_shader_path=libplacebo=custom_shader_path=shaders/Anime4K_Upscale_CNN_x2_VL.glsl,subtitles="{sub_file}":si=0[out]"&#x27;,&#xA;    &#x27;-map&#x27;, &#x27;0:a&#x27;,&#xA;    &#x27;-map&#x27;, &#x27;"[out]"&#x27;,&#xA;    &#x27;-c:v&#x27;, &#x27;libsvtav1&#x27;,&#xA;    &#x27;-svtav1-params&#x27;, &#x27;scm=2:scd=1:enable-overlays=1:enable-tf=0:tune=0:preset=7:crf=18&#x27;,&#xA;    &#x27;-c:a&#x27;, &#x27;libvorbis&#x27;,&#xA;    &#x27;-qscale:a&#x27;, &#x27;10&#x27;,&#xA;    &#x27;-pix_fmt&#x27;, &#x27;yuv420p10le&#x27;,&#xA;    &#x27;-y&#x27;, &#x27;"{output_ab_path}"&#x27;&#xA;]&#xA;

    &#xA;