Recherche avancée

Médias (1)

Mot : - Tags -/framasoft

Autres articles (52)

  • XMP PHP

    13 mai 2011, par

    Dixit Wikipedia, XMP signifie :
    Extensible Metadata Platform ou XMP est un format de métadonnées basé sur XML utilisé dans les applications PDF, de photographie et de graphisme. Il a été lancé par Adobe Systems en avril 2001 en étant intégré à la version 5.0 d’Adobe Acrobat.
    Étant basé sur XML, il gère un ensemble de tags dynamiques pour l’utilisation dans le cadre du Web sémantique.
    XMP permet d’enregistrer sous forme d’un document XML des informations relatives à un fichier : titre, auteur, historique (...)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

  • ANNEXE : Les plugins utilisés spécifiquement pour la ferme

    5 mars 2010, par

    Le site central/maître de la ferme a besoin d’utiliser plusieurs plugins supplémentaires vis à vis des canaux pour son bon fonctionnement. le plugin Gestion de la mutualisation ; le plugin inscription3 pour gérer les inscriptions et les demandes de création d’instance de mutualisation dès l’inscription des utilisateurs ; le plugin verifier qui fournit une API de vérification des champs (utilisé par inscription3) ; le plugin champs extras v2 nécessité par inscription3 (...)

Sur d’autres sites (7965)

  • Attempting to compile FFmpeg 4.2.3 statically for Windows 10 (x86_64), but binaries asks for missing DLLs

    29 mai 2020, par Expectator

    I am using Msys MinGW (x86_64) and pulled a snapshot of the latest major release of FFmpeg off of their website. Here is my ./configure options. I plan to use the binaries on both the computer that I compiled it on, and other Windows computers that I own.

    



    ./configure --enable-libaom --enable-avisynth --enable-chromaprint --enable-libdav1d --enable-libdavs2 --enable-libgme --enable-libmfx --enable-libkvazaar --enable-libmp3lame --enable-libilbc --enable-libvpx --enable-libmodplug --enable-version3 --enable-nonfree --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libvo-amrwbenc --enable-libfdk-aac --enable-libopenh264 --enable-libopenjpeg --enable-nvenc --enable-nvdec --enable-cuda --enable-cuvid --enable-libtwolame --enable-vapoursynth --enable-libwavpack --enable-libx264 --enable-libx265 --enable-libxavs --enable-libxavs2 --enable-gpl --enable-static --disable-shared


    



    Output of configure script (pastebin)

    



    Output of uname -a (in Msys)

    



    MINGW64_NT-10.0-18362 <scrubbed> 3.1.4-340.x86_64 2020-05-22 08:28 UTC x86_64 Msys&#xA;</scrubbed>

    &#xA;&#xA;

    The issue that I'm facing is that despite passing the options --enable-static and --disable-shared, the executables generated still require libchromaprint.dll, libfdk-aac-2.dll, and libgme.dll to run. What I expected was that FFmpeg would execute independently of any DLL files since I passed those options to ./configure.

    &#xA;

  • how to create video from ffmpeg ?

    4 mai 2020, par Hong

    I have 10 images, 2 videos(mov, mp4) and 1 audio.

    &#xA;&#xA;

    My plan is

    &#xA;&#xA;

      &#xA;
    1. create images to video (images.mp4)
    2. &#xA;

    &#xA;&#xA;

    ffmpeg -framerate 0.75 -pattern_type glob -i &#x27;*.png&#x27; \&#xA; -c:v libx264 -vf "format=yuv420p,pad=ceil(iw/2)*2:ceil(ih/2)*2" -r 30 -pix_fmt yuv420p out.mp4  &#xA;

    &#xA;&#xA;

      &#xA;
    1. concat videos&#xA;filelist :
    2. &#xA;

    &#xA;&#xA;

    file &#x27;images.mp4&#x27;&#xA;file &#x27;video1.mov&#x27;&#xA;file &#x27;video2.mp4&#x27;&#xA;

    &#xA;&#xA;

    2-1 )&#xA;ffmpeg -f concat -safe 0 -i filelist.txt -auto_convert 1 -c copy output.mp4

    &#xA;&#xA;

    2-2 ) first. i'm encode mov to mp4. and change filelist.txt

    &#xA;&#xA;

    file &#x27;images.mp4&#x27;&#xA;file &#x27;video1.mp4&#x27;&#xA;file &#x27;video2.mp4&#x27;&#xA;ffmpeg -f concat -safe 0 -i filelist.txt -auto_convert 1 -c copy output.mp4&#xA;

    &#xA;&#xA;

      &#xA;
    1. add background music.&#xA;It has not yet reached this stage.&#xA;It's blocked in plan 2.
    2. &#xA;

    &#xA;&#xA;

    this plan is right ?&#xA;I'm not sure about this plan.

    &#xA;&#xA;

    Step 2 output is strange.&#xA;The frame of the video No. 1 and No. 2 is not smooth.

    &#xA;&#xA;

    How can I create video from images and meger another video.

    &#xA;

  • Mute parts of Wave file using Python/FFMPEG/Pydub

    20 avril 2020, par Adil Azeem

    I am new to Python, please bear with me. I have been able to get so far with the help of Google/StackOverflow and youtube :). So I have a long (2 hours) *.wav file. I want to mute certain parts of that file. I have all of those [start], [stop] timestamps in the "Timestamps.txt" file in seconds. Like this :

    &#xA;&#xA;

       0001.000 0003.000&#xA;   0744.096 0747.096&#xA;   0749.003 0750.653&#xA;   0750.934 0753.170&#xA;   0753.210 0754.990&#xA;   0756.075 0759.075&#xA;   0760.096 0763.096&#xA;   0810.016 0811.016&#xA;   0815.849 0816.849&#xA;

    &#xA;&#xA;

    What I have been able to do is read the file and isolate each tuple. I have just output the first tuple and printed it to check if everything looks good. It seems that the isolation of tuple works :) I plan to count the number of tuples (which is 674 in this case) and put in a 'for loop' according to that count and change the start and stop time according to the tuple. Perform the loop on that single *.wav file and output on file with muted sections as the timestamps. I have no idea how to implement my thinking with FFMPEG or any other utility in Python e.g pydub. Please help me.

    &#xA;&#xA;

       with open(&#x27;Timestamps.txt&#x27;) as f:&#xA;   data = [line.split() for line in f.readlines()]&#xA;   out = [(float(k), float(v)) for k, v in data]&#xA;&#xA;   r = out[0] &#xA;   x= r[0]&#xA;   y= r[1]&#xA;   #specific x and y values&#xA;   print(x)&#xA;   print(y)&#xA;

    &#xA;