Recherche avancée

Médias (1)

Mot : - Tags -/publier

Autres articles (48)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

  • Les formats acceptés

    28 janvier 2010, par

    Les commandes suivantes permettent d’avoir des informations sur les formats et codecs gérés par l’installation local de ffmpeg :
    ffmpeg -codecs ffmpeg -formats
    Les format videos acceptés en entrée
    Cette liste est non exhaustive, elle met en exergue les principaux formats utilisés : h264 : H.264 / AVC / MPEG-4 AVC / MPEG-4 part 10 m4v : raw MPEG-4 video format flv : Flash Video (FLV) / Sorenson Spark / Sorenson H.263 Theora wmv :
    Les formats vidéos de sortie possibles
    Dans un premier temps on (...)

  • Ajouter notes et légendes aux images

    7 février 2011, par

    Pour pouvoir ajouter notes et légendes aux images, la première étape est d’installer le plugin "Légendes".
    Une fois le plugin activé, vous pouvez le configurer dans l’espace de configuration afin de modifier les droits de création / modification et de suppression des notes. Par défaut seuls les administrateurs du site peuvent ajouter des notes aux images.
    Modification lors de l’ajout d’un média
    Lors de l’ajout d’un média de type "image" un nouveau bouton apparait au dessus de la prévisualisation (...)

Sur d’autres sites (7384)

  • Is it possible to combine audio and video from ffmpeg-python without writing to files first ?

    22 janvier 2021, par nullUser

    I'm using the ffmpeg-python library.

    


    I have used the example code : https://github.com/kkroening/ffmpeg-python/tree/master/examples to asynchronously read in and process audio and video streams. The processing is custom and not something a built-in ffmpeg command can achieve (imagine something like tensorflow deep dreaming on both the audio and video). I then want to recombine the audio and video streams that I have created. Currently, the only way I can see to do it is to write both streams out to separate files (as is done e.g. in this answer : How to combine The video and audio files in ffmpeg-python), then use ffmpeg to combine them afterwards. This has the major disadvantage that the result cannot be streamed, i.e. the audio and video must be completely done processing before you can start playing the combined audio/video. Is there any way to combine them without going to files as an intermediate step ?

    


    Technically, the fact that the streams were initially read in from ffmpeg is irrelevant. You may as well assume that I'm in the following situation :

    


    def audio_stream():
    for i in range(10):
        yield bytes(44100 * 2 * 4) # one second of audio 44.1k sample rate, 2 channel, s32le format

def video_stream():
    for i in range(10):
        yield bytes(60 * 1080 * 1920 * 3) # one second of video 60 fps 1920x1080 rgb24 format

# how to write both streams of bytes to file without writing each one separately to a file first?


    


    I would like to use ffmpeg.concat, but this requires ffmpeg.inputs, which only accept filenames as inputs. Is there any other way ? Here are the docs : https://kkroening.github.io/ffmpeg-python/.

    


  • avdevice/avdevice : Deprecate AVDevice Capabilities API

    24 janvier 2021, par Andreas Rheinhardt
    avdevice/avdevice : Deprecate AVDevice Capabilities API
    

    It has been added in 6db42a2b6b22e6f1928fafcf3faa67ed78201004,
    yet since then none of the necessary create/free_device_capabilities
    functions has been implemented, making this API completely useless.

    Because of this one can already simplify
    avdevice_capabilities_free/create and can already remove the function
    pointers at the next major bump ; given that the documentation explicitly
    states that av_device_capabilities is not to be used by a user, it's
    options can already be removed (save for the sentinel).

    Signed-off-by : Andreas Rheinhardt <andreas.rheinhardt@gmail.com>

    • [DH] doc/APIchanges
    • [DH] libavdevice/avdevice.c
    • [DH] libavdevice/avdevice.h
    • [DH] libavdevice/version.h
    • [DH] libavformat/avformat.h
  • How to create a spectrogram image from an audio file in Python just like how FFMPEG does ?

    2 mai 2020, par hamandishe Mk

    My code :

    &#xA;&#xA;

    import matplotlib.pyplot as plt&#xA;from matplotlib.pyplot import specgram&#xA;import librosa&#xA;import librosa.display&#xA;import numpy as np&#xA;import io&#xA;from PIL import Image&#xA;&#xA;samples, sample_rate = librosa.load(&#x27;thabo.wav&#x27;)&#xA;fig = plt.figure(figsize=[4, 4])&#xA;ax = fig.add_subplot(111)&#xA;ax.axes.get_xaxis().set_visible(False)&#xA;ax.axes.get_yaxis().set_visible(False)&#xA;ax.set_frame_on(False)&#xA;S = librosa.feature.melspectrogram(y=samples, sr=sample_rate)&#xA;librosa.display.specshow(librosa.power_to_db(S, ref=np.max))&#xA;buf = io.BytesIO()&#xA;plt.savefig(buf,  bbox_inches=&#x27;tight&#x27;,pad_inches=0)&#xA;&#xA;# plt.close(&#x27;all&#x27;)&#xA;buf.seek(0)&#xA;im = Image.open(buf)&#xA;# im = Image.open(buf).convert(&#x27;L&#x27;)&#xA;im.show()&#xA;buf.close()&#xA;

    &#xA;&#xA;

    Spectrogram produced

    &#xA;&#xA;

    enter image description here

    &#xA;&#xA;

    Using FFMPEG

    &#xA;&#xA;

    ffmpeg -i thabo.wav -lavfi showspectrumpic=s=224x224:mode=separate:legend=disabled spectrogram.png

    &#xA;&#xA;

    Spectrogram produced

    &#xA;&#xA;

    enter image description here

    &#xA;&#xA;

    Please help, i want a spectrogram that is exactly the same as the one produced by FFMPEG, for use with a speech recognition model exported from google's teachable machine.&#xA;Offline recognition

    &#xA;