Recherche avancée

Médias (91)

Autres articles (83)

  • Amélioration de la version de base

    13 septembre 2013

    Jolie sélection multiple
    Le plugin Chosen permet d’améliorer l’ergonomie des champs de sélection multiple. Voir les deux images suivantes pour comparer.
    Il suffit pour cela d’activer le plugin Chosen (Configuration générale du site > Gestion des plugins), puis de configurer le plugin (Les squelettes > Chosen) en activant l’utilisation de Chosen dans le site public et en spécifiant les éléments de formulaires à améliorer, par exemple select[multiple] pour les listes à sélection multiple (...)

  • Menus personnalisés

    14 novembre 2010, par

    MediaSPIP utilise le plugin Menus pour gérer plusieurs menus configurables pour la navigation.
    Cela permet de laisser aux administrateurs de canaux la possibilité de configurer finement ces menus.
    Menus créés à l’initialisation du site
    Par défaut trois menus sont créés automatiquement à l’initialisation du site : Le menu principal ; Identifiant : barrenav ; Ce menu s’insère en général en haut de la page après le bloc d’entête, son identifiant le rend compatible avec les squelettes basés sur Zpip ; (...)

  • Configuration spécifique pour PHP5

    4 février 2011, par

    PHP5 est obligatoire, vous pouvez l’installer en suivant ce tutoriel spécifique.
    Il est recommandé dans un premier temps de désactiver le safe_mode, cependant, s’il est correctement configuré et que les binaires nécessaires sont accessibles, MediaSPIP devrait fonctionner correctement avec le safe_mode activé.
    Modules spécifiques
    Il est nécessaire d’installer certains modules PHP spécifiques, via le gestionnaire de paquet de votre distribution ou manuellement : php5-mysql pour la connectivité avec la (...)

Sur d’autres sites (4345)

  • movenc : Allow writing a DASH sidx atom at the start of files

    21 octobre 2014, par Martin Storsjö
    movenc : Allow writing a DASH sidx atom at the start of files
    

    This is mapped to the faststart flag (which in this case
    perhaps should be called "shift and write index at the
    start of the file"), which for fragmented files will
    write a sidx index at the start.

    When segmenting DASH into files, there’s usually one sidx
    at the start of each segment (although it’s not clear to me
    whether that actually is necessary). When storing all of it
    in one file, the MPD doesn’t necessarily need to describe
    the individual segments, but the offsets of the fragments can be
    fetched from one large sidx atom at the start of the file. This
    allows creating files for the DASH ISO BMFF on-demand profile.

    Signed-off-by : Martin Storsjö <martin@martin.st>

    • [DH] libavformat/movenc.c
    • [DH] libavformat/movenc.h
  • ffmpeg waits to close the pipe in order to start processing data

    15 juin 2022, par Mahmoud Ferig

    I'm struggling with this issue.&#xA;Here I am trying to stream video using ffmpeg from images and audio file this code below works fine but it is start streaming after stdin closed, I would expect ffmpeg to start processing the pipe input as it is received, and immediately output the result.

    &#xA;

    p = subprocess.Popen(&#xA;    [&#xA;        &#x27;ffmpeg&#x27;,&#xA;        &#x27;-y&#x27;,&#xA;        &#x27;-re&#x27;,&#xA;        &#x27;-f&#x27;, &#x27;image2pipe&#x27;,&#xA;        &#x27;-vcodec&#x27;, &#x27;mjpeg&#x27;,&#xA;        &#x27;-framerate&#x27;, &#x27;15&#x27;,&#xA;        &#x27;-analyzeduration&#x27;, &#x27;2147483647&#x27;,&#xA;        &#x27;-probesize&#x27;, &#x27;2147483647&#x27;,&#xA;        &#x27;-i&#x27;, &#x27;-&#x27;,&#xA;        &#x27;-vn&#x27;, &#x27;-i&#x27;, audio_path,&#xA;        &#x27;-c:v&#x27;, &#x27;libx264&#x27;,&#xA;        &#x27;-pix_fmt&#x27;, &#x27;yuv420p&#x27;,&#xA;        &#x27;-preset&#x27;, &#x27;ultrafast&#x27;,&#xA;        &#x27;-c:a&#x27;, &#x27;aac&#x27;,&#xA;        &#x27;-f&#x27;, &#x27;flv&#x27;,&#xA;        rtmp_url&#xA;    ],&#xA;    stdin=subprocess.PIPE,&#xA;    stdout=subprocess.PIPE&#xA;)&#xA;&#xA;time.sleep(2)&#xA;&#xA;i = 0&#xA;while True:&#xA;    current_images = [name for name in os.listdir(img_dir) if os.path.isfile(os.path.join(img_dir, name))]&#xA;    current_images = sorted(current_images)&#xA;    if i > fnum-1:&#xA;        print("frame read failed")&#xA;        break&#xA;    try:&#xA;        img = cv2.imread(os.path.join(img_dir, current_images[i]))&#xA;        success, buffer = cv2.imencode(&#x27;.jpg&#x27;, img)&#xA;        frame = buffer.tobytes()&#xA;        p.stdin.write(frame)&#xA;        i &#x2B;= 1&#xA;    except:&#xA;        time.sleep(2)&#xA;        pass&#xA;&#xA;p.stdin.close()&#xA;p.wait()&#xA;

    &#xA;

    Why is ffmpeg waiting to close the pipe to start processing ? Can it be configured to start a live transcoding of the received stream ?

    &#xA;

    Do you know how can I convince ffmpeg to start producing output immediately ?

    &#xA;

    Thank you !

    &#xA;

  • FFmpeg : Combine video files with different start times

    18 mai 2016, par Fabian

    I have two webm files with audio and video recordings of a video conference session. Both files only contain one side of the conversation. They are not of the same length (someone has joined before the other one), but I have the unix timestamp in milliseconds of the start time of each video file.

    On a timeline they look like this :

    webm 1:   -----------------------------------------------
    webm 2:                 -----------------------------

    or like this :

    webm 1:   -----------------------------------------------
    webm 2:                          -----------------------------

    I would like to combine these two video files into one file so that :

    1. They appear next to each other (using the hstack option), and
    2. That they are mixed with taking the time stamps of the start times
      into account. The final video should then look like this :

    Target result : --------------===========================----

    The beginning and the end of the new video would show a black placeholder for the video file that has no data at this time of the mixed stream.

    At the moment I use this command :

    ffmpeg -i 1463408731413703.webm -i 1463408880317860.webm -filter_complex \
    "[0:v][1:v]hstack=inputs=2[v]; \
    [0:a][1:a]amerge[a]" \
    -map "[v]" -map "[a]" -ac 2  -c:v libvpx output.webm

    This creates a video like this :

    Not good result : =====================------------------

    i.e. the conversation is out of sync.

    How can I combine two video streams with different length and different start times using ffmpeg so that I will end up with "Target result" above ?

    Thanks a lot !