Recherche avancée

Médias (0)

Mot : - Tags -/optimisation

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (63)

  • Diogene : création de masques spécifiques de formulaires d’édition de contenus

    26 octobre 2010, par

    Diogene est un des plugins ? SPIP activé par défaut (extension) lors de l’initialisation de MediaSPIP.
    A quoi sert ce plugin
    Création de masques de formulaires
    Le plugin Diogène permet de créer des masques de formulaires spécifiques par secteur sur les trois objets spécifiques SPIP que sont : les articles ; les rubriques ; les sites
    Il permet ainsi de définir en fonction d’un secteur particulier, un masque de formulaire par objet, ajoutant ou enlevant ainsi des champs afin de rendre le formulaire (...)

  • MediaSPIP version 0.1 Beta

    16 avril 2011, par

    MediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Utilisation et configuration du script

    19 janvier 2011, par

    Informations spécifiques à la distribution Debian
    Si vous utilisez cette distribution, vous devrez activer les dépôts "debian-multimedia" comme expliqué ici :
    Depuis la version 0.3.1 du script, le dépôt peut être automatiquement activé à la suite d’une question.
    Récupération du script
    Le script d’installation peut être récupéré de deux manières différentes.
    Via svn en utilisant la commande pour récupérer le code source à jour :
    svn co (...)

Sur d’autres sites (2827)

  • How to convert a Video to a Slideshow with synced audio ? [closed]

    25 mai 2013, par Henry Mazza

    I want a simple way to convert a Ted Talk Presentation to a SlideShow + (synced)Audio format so I can listen to it in my car. I don't want to lose most of the visuals as it does in the audio format and also want to reduce the storage/cell data needs of the video format.

    So far I already extracted the key scenes with timing and the audio, now I must glue this together in a synced fashion.

    Possible ways I found but couldn't make work :

    • MP4Box to make a .m4b (audiobook/enhanced podcast) with mp4chap to set each image as a chapter image (but I could find proper documentation on how to do this)
    • FFMPEG to make a flat movie with the images (but I couldn't make each image stay for a random period of time)

    Ultimately I will automate this process in my VPS and make my private podcast server, so no fancy tools that don't work in Linux, please.

    EDIT : actually the Podcast is a lousy idea, the artwork must be in a square aspect ratio and has great compatibility problems with varius players. Still studing the Book format.

  • Matplotlib pipe canvas.draw() to ffmpeg - unexpected result [duplicate]

    31 juillet 2022, par Narusan

    I'm using this code from here to try and pipe multiple matplotlib plots into ffmpeg to write a video file :

    


    import numpy as np
import matplotlib.pyplot as plt
import subprocess

xlist = np.random.randint(100,size=100)
ylist = np.random.randint(100, size=100)
color = np.random.randint(2, size=100)

f = plt.figure(figsize=(5,5), dpi = 300)
canvas_width, canvas_height = f.canvas.get_width_height()
ax = f.add_axes([0,0,1,1])
ax.axis('off')


# Open an ffmpeg process
outf = 'ffmpeg.mp4'
cmdstring = ('ffmpeg',
    '-y', '-r', '30', # overwrite, 30fps
    '-s', '%dx%d' % (canvas_width, canvas_height), # size of image string
    '-pix_fmt', 'argb', # format
    '-f', 'rawvideo',  '-i', '-', # tell ffmpeg to expect raw video from the pipe
    '-vcodec', 'mpeg4', outf) # output encoding
p = subprocess.Popen(cmdstring, stdin=subprocess.PIPE)

# Draw 1000 frames and write to the pipe
for frame in range(10):
    print("Working on frame")
    # draw the frame
    f = plt.figure(figsize=(5,5), dpi=300)
    ax = f.add_axes([0,0,1,1])
    ax.scatter(xlist, ylist,
               c=color, cmap = 'viridis')
    f.canvas.draw()
    plt.show()

    # extract the image as an ARGB string
    string = f.canvas.tostring_argb()
    # write to pipe
    p.stdin.write(string)

# Finish up
p.communicate()


    


    While plt.show() does show the correct plot (see image below), the video that ffmpeg creates is a bit different than what plt.show() shows. I am presuming the issue is with f.canvas.draw(), but I'm not sure how to get a look at what canvas.draw() actually plots.

    


    plot.show() :
enter image description here

    


    ffmpeg video (imgur link)

    


  • command line audio equalizer ffmpeg sox

    5 novembre 2016, par user1320370

    I need to add equalizer effect on some flac files :

    f=4043, 1.65q, g=9.5; f=7024, 1.09q, g=3.7; f=9254, 0.94q, g=-2.5

    I was tried ffmpeg :

    ffmpeg -i solovoce_compress.flac -af equalizer=f=4043:width_type=q:w=1.65:g=9.5, equalizer=f=7024:width_type=q:w=1.09:g=3.7,equalizer=f=9254:width_type=q:w=0.94:g=-2.5 solovoce_equalizzato.flac

    but the result is much different then what I expect, this values was calculated by izotope ozone (professional audio editor software) and tested.

    I used the equivalent with sox and the result is some.

    A this point I like to try ffmpeg ’anequalizer’ filter that show the graph so I can ’see’ the difference, but I the documentation to show the graph is not clear and I was not found nothing about on web.

    Someone can please send me an example of ’anequalizer’ with plot enabled ?