Recherche avancée

Médias (0)

Mot : - Tags -/publication

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (40)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

Sur d’autres sites (5901)

  • avfilter/x86/vf_blend : use unaligned movs for output

    19 janvier 2022, par Marton Balint
    avfilter/x86/vf_blend : use unaligned movs for output
    

    Fixes crashes with :

    ffmpeg -f lavfi -i allyuv=d=1 -vf tblend=difference128,pad=5000:ih:1 -f null x

    Signed-off-by : Marton Balint <cus@passwd.hu>

    • [DH] libavfilter/x86/vf_blend.asm
  • node.js ffmpeg spawn child_process unexpected data output

    5 septembre 2021, par PLNR

    &#xA;I'm rather new to backend stuff, so please excuse, if my question is trivial.
    &#xA;For an Intranet project, I want to present a video element in a webpage (React, HLS.js Player).
    &#xA;The video sources are mpeg-ts streams delivered as udp multicast.
    &#xA;A small node.js / express server should handle the ffmpeg commands, to transcode the multicast to hls to display them in a browser.
    &#xA;
    &#xA;Problem is the Output :
    &#xA;The output is emitted on stderr... even the process is working as expected.
    &#xA;Here is the respective code I wrote for transcoding so far :

    &#xA;

    const express = require("express");&#xA;const { spawn, exec } = require("child_process");&#xA;const process = require("process")&#xA;&#xA;let ls;&#xA;&#xA;const app = express();&#xA;&#xA;app.get(&#x27;/cam/:source&#x27;, (body) => {&#xA;    const cam = body.params.source;&#xA;    console.log(cam);&#xA;&#xA;    let source = "udp://239.1.1.1:4444";&#xA;    let stream = "/var/www/html/streams/tmp/cam1.m3u8"&#xA;&#xA;&#xA;    stream = spawn("ffmpeg", ["-re", "-i", source, "-c:v", "libx264", "-crf", "21", "-preset", "veryfast", "-c:a", "aac", "-b:a", "128k", "-ac", "2", "-f", "hls", "-hls_list_size", "5", "-hls_flags", "delete_segments", stream], {detached: true});&#xA;&#xA;    stream.stdout.on("data", data => {&#xA;        console.log(`stdout: ${data}`);&#xA;    });&#xA;&#xA;    stream.stderr.on("data", data => {&#xA;        console.log(`stderr: ${data}`);&#xA;    });&#xA;&#xA;    stream.on("error", error => {&#xA;        console.log(`error: ${error.message}`);&#xA;    });&#xA;&#xA;    stream.on("close", code => {&#xA;        console.log(`child process exited with code ${code}`);&#xA;    });&#xA;})&#xA;&#xA;app.listen(5000, ()=> {&#xA;    console.log(&#x27;Listening&#x27;);&#xA;})&#xA;

    &#xA;

    This is maybe only cosmetics, but it makes me wondering.
    &#xA;Here is the terminal output :

    &#xA;

    [nodemon] starting `node server.js`&#xA;Listening&#xA;camera stream reloaded&#xA;stderr: ffmpeg version 4.3.2-0&#x2B;deb11u1ubuntu1 Copyright (c) 2000-2021 the FFmpeg developers&#xA;  built with gcc 10 (Ubuntu 10.2.1-20ubuntu1)&#xA;&#xA;  --shortend--&#xA;&#xA;&#xA;pid:  4206&#xA;stderr: frame=    8 fps=0.0 q=0.0 size=N/A time=00:00:00.46 bitrate=N/A speed=0.931x    &#xA;pid:  4206&#xA;stderr: frame=   21 fps= 21 q=26.0 size=N/A time=00:00:00.96 bitrate=N/A speed=0.95x    &#xA;pid:  4206&#xA;stderr: frame=   33 fps= 22 q=26.0 size=N/A time=00:00:01.49 bitrate=N/A speed=0.982x    &#xA;pid:  4206&#xA;stderr: frame=   46 fps= 23 q=26.0 size=N/A time=00:00:02.00 bitrate=N/A speed=0.989x    &#xA;pid:  4206&#xA;stderr: frame=   58 fps= 23 q=26.0 size=N/A time=00:00:02.49 bitrate=N/A speed=0.986x    &#xA;pid:  4206&#xA;

    &#xA;

    and so on...
    &#xA;
    &#xA;Any helpful information would be highly appreciated !
    &#xA;Many thanks in advance

    &#xA;

  • How can I create a side-by-side horizontally stacked video with a delay in video and audio using ffmpeg-python ?

    3 septembre 2021, par kup

    I am trying to create a video from two videos that will be stacked horizontally, but the resulting video is not what I expected. The same video is appearing on both sides (left and right). How can that be achieved ?

    &#xA;

    The ffmpeg command I tried, which kind of worked :

    &#xA;

    ffmpeg -i left.mp4 -i right.mp4 -filter_complex "&#xA;[0:v]setpts=PTS-STARTPTS[l];&#xA;[1:v]setpts=PTS-STARTPTS,tpad=start_duration=14:start_mode=add:color=black[r];&#xA;[l][r]hstack=inputs=2[stacked]; [0:a][1:a]amix=inputs=2[a]&#xA;" -map "[stacked]" -map "[a]" -c:a aac -preset superfast result.mp4&#xA;

    &#xA;

    The ffmpeg-python script that's not working :

    &#xA;

    in0 = ffmpeg.input(&#x27;0.mp4&#x27;)&#xA;in1 = ffmpeg.input(&#x27;right.mkv&#x27;)&#xA;aout = ffmpeg.filter([in0.audio, in1.audio.filter(&#x27;adelay&#x27;, "5000|5000")],&#x27;amix&#x27;)&#xA;vout = ffmpeg.filter([inv0.video, inv1.video.filter(&#x27;tpad&#x27;, start_duration=5, start_mode=&#x27;add&#x27;, color=&#x27;black&#x27;)], &#x27;hstack&#x27;)&#xA;&#xA;(&#xA;    ffmpeg&#xA;    .concat(vout, aout, v=1, a=1)&#xA;    .output("out.mkv")&#xA;    .run()&#xA;)&#xA;

    &#xA;

    This script is not resulting in the expected output which is two videos side-by-side horizontally stacked.

    &#xA;