Recherche avancée

Médias (1)

Mot : - Tags -/biomaping

Autres articles (96)

  • Mediabox : ouvrir les images dans l’espace maximal pour l’utilisateur

    8 février 2011, par

    La visualisation des images est restreinte par la largeur accordée par le design du site (dépendant du thème utilisé). Elles sont donc visibles sous un format réduit. Afin de profiter de l’ensemble de la place disponible sur l’écran de l’utilisateur, il est possible d’ajouter une fonctionnalité d’affichage de l’image dans une boite multimedia apparaissant au dessus du reste du contenu.
    Pour ce faire il est nécessaire d’installer le plugin "Mediabox".
    Configuration de la boite multimédia
    Dès (...)

  • (Dés)Activation de fonctionnalités (plugins)

    18 février 2011, par

    Pour gérer l’ajout et la suppression de fonctionnalités supplémentaires (ou plugins), MediaSPIP utilise à partir de la version 0.2 SVP.
    SVP permet l’activation facile de plugins depuis l’espace de configuration de MediaSPIP.
    Pour y accéder, il suffit de se rendre dans l’espace de configuration puis de se rendre sur la page "Gestion des plugins".
    MediaSPIP est fourni par défaut avec l’ensemble des plugins dits "compatibles", ils ont été testés et intégrés afin de fonctionner parfaitement avec chaque (...)

  • Les autorisations surchargées par les plugins

    27 avril 2010, par

    Mediaspip core
    autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs

Sur d’autres sites (9420)

  • Using HW accelerate video encoding

    9 juin 2019, par RoboGil

    I am trying to get ffmpeg HW acceleration on an UpBoard .
    It uses an Atom x5 z8350 processor and Intel HD 400 GPU

    I have also followed this tutorial in order to compile ffmpeg with libmfx enabled.

    $ ffmpeg -encoders | grep qsv
    ffmpeg version 4.1.3 Copyright (c) 2000-2019 the FFmpeg developers
     built with gcc 5.4.0 (Ubuntu 5.4.0-6ubuntu1~16.04.11) 20160609
     configuration: --enable-libmfx
     libavutil      56. 22.100 / 56. 22.100
     libavcodec     58. 35.100 / 58. 35.100
     libavformat    58. 20.100 / 58. 20.100
     libavdevice    58.  5.100 / 58.  5.100
     libavfilter     7. 40.101 /  7. 40.101
     libswscale      5.  3.100 /  5.  3.100
     libswresample   3.  3.100 /  3.  3.100
    V..... h264_qsv             H.264 / AVC / MPEG-4 AVC / MPEG-4 part 10 (Intel Quick Sync Video acceleration) (codec h264)
    V..... hevc_qsv             HEVC (Intel Quick Sync Video acceleration) (codec hevc)
    V..... mjpeg_qsv            MJPEG (Intel Quick Sync Video acceleration) (codec mjpeg)
    V..... mpeg2_qsv            MPEG-2 video (Intel Quick Sync Video acceleration) (codec mpeg2video)

    However, when trying to encode I video I am getting :

    $ ffmpeg -i in.mp4 -c:v h264_qsv -global_quality 10 -look_ahead 1 out.mp4


    ffmpeg version 4.1.3 Copyright (c) 2000-2019 the FFmpeg developers
     built with gcc 5.4.0 (Ubuntu 5.4.0-6ubuntu1~16.04.11) 20160609
     configuration: --enable-libmfx
     libavutil      56. 22.100 / 56. 22.100
     libavcodec     58. 35.100 / 58. 35.100
     libavformat    58. 20.100 / 58. 20.100
     libavdevice    58.  5.100 / 58.  5.100
     libavfilter     7. 40.101 /  7. 40.101
     libswscale      5.  3.100 /  5.  3.100
     libswresample   3.  3.100 /  3.  3.100
    Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'in.mp4':
     Metadata:
       major_brand     : mp42
       minor_version   : 0
       compatible_brands: isommp42
       creation_time   : 2019-06-04T19:06:40.000000Z
     Duration: 00:04:03.07, start: 0.000000, bitrate: 408 kb/s
       Stream #0:0(und): Video: h264 (Constrained Baseline) (avc1 / 0x31637661), yuv420p(tv, bt709), 640x360 [SAR 1:1 DAR 16:9], 310 kb/s, 25 fps, 25 tbr, 12800 tbn, 50 tbc (default)
       Metadata:
         creation_time   : 2019-06-04T19:06:40.000000Z
         handler_name    : ISO Media file produced by Google Inc. Created on: 06/04/2019.
       Stream #0:1(und): Audio: aac (LC) (mp4a / 0x6134706D), 44100 Hz, stereo, fltp, 95 kb/s (default)
       Metadata:
         creation_time   : 2019-06-04T19:06:40.000000Z
         handler_name    : ISO Media file produced by Google Inc. Created on: 06/04/2019.
    File 'out.mp4' already exists. Overwrite ? [y/N] y
    Stream mapping:
     Stream #0:0 -> #0:0 (h264 (native) -> h264 (h264_qsv))
     Stream #0:1 -> #0:1 (aac (native) -> aac (native))
    Press [q] to stop, [?] for help


    [h264_qsv @ 0x3b30a00] Error initializing an internal MFX session: unsupported (-3)
    Error initializing output stream 0:0 -- Error while opening encoder for output stream #0:0 - maybe incorrect parameters such as bit_rate, rate, width or height
    Conversion failed!

    What am I missing ?

    Thank you very much !

  • How do I make FFMPEG use localized strftime with drawtext ?

    3 décembre 2022, par Randy Michnovicz

    I'm trying to write a script to use FFMPEG to draw localized timestamps on a video, but I'm not having much luck.

    


    I can confirm I have the locale fr_FR.UTF-8 installed on my system by running the following command : LC_ALL=fr_FR.UTF-8 date

    


    However, the following command produces a 4 second video beginning with the string "Monday 28 November 2022 19:00:47 PST" on both my Mac and an Alpine Linux docker container :

    


    LC_ALL=fr_FR.UTF-8 ffmpeg -hide_banner -f lavfi -i color=size=1024x768:rate=25:color=black -c:v libx264 -c:a aac -filter_complex drawtext=expansion=normal:fontsize=18:fontcolor=white:box=1:boxcolor=black@0.5:text='%{pts\\:localtime\\:1669690847\\:%A %-d %B %Y %X %Z}' -t 4 -y out.mp4

    


    Does anyone know how to make it create strings with non-English text ?

    


  • creating video from selected images using FFMPEG through command Line Android

    7 septembre 2016, par Raheel Mushtaq

    i am trying to make a video from selected images from command line using ffmpeg in android

    using this project as my source i m trying to make video

    this is the command i m trying to create video

      String[] ffmpegCommand = {ffmpegBin,
               "-y",
               "-qscale",
               "1",
               "-r", "" + frameRate,
               "-i", image1.getAbsolutePath(),
               "-t", "" + (((4) * 30) + 4), //"-s",heightwidth,
               "-i", image2.getAbsolutePath(),
               "-t", "" + (((4) * 30) + 4), //"-s",heightwidth,
               "-i", image3.getAbsolutePath(),
               "-t", "" + (((4) * 30) + 4), //"-s",heightwidth,
               "-i", image4.getAbsolutePath(),
               "-t", "" + (((4) * 30) + 4), //"-s",heightwidth,
               "-vcodec",
               "libx264",
               "-s",
               "640x480",
               outputFile.getAbsolutePath()};

    but the video created shows only 1st image and video is created of less than a second

    what is the problem in this statement ? and why only 1 image is shown in video ?

    sorry about my bad english