Recherche avancée

Médias (1)

Mot : - Tags -/lev manovitch

Autres articles (106)

  • MediaSPIP 0.1 Beta version

    25 avril 2011, par

    MediaSPIP 0.1 beta is the first version of MediaSPIP proclaimed as "usable".
    The zip file provided here only contains the sources of MediaSPIP in its standalone version.
    To get a working installation, you must manually install all-software dependencies on the server.
    If you want to use this archive for an installation in "farm mode", you will also need to proceed to other manual (...)

  • Websites made ​​with MediaSPIP

    2 mai 2011, par

    This page lists some websites based on MediaSPIP.

  • Pas question de marché, de cloud etc...

    10 avril 2011

    Le vocabulaire utilisé sur ce site essaie d’éviter toute référence à la mode qui fleurit allègrement
    sur le web 2.0 et dans les entreprises qui en vivent.
    Vous êtes donc invité à bannir l’utilisation des termes "Brand", "Cloud", "Marché" etc...
    Notre motivation est avant tout de créer un outil simple, accessible à pour tout le monde, favorisant
    le partage de créations sur Internet et permettant aux auteurs de garder une autonomie optimale.
    Aucun "contrat Gold ou Premium" n’est donc prévu, aucun (...)

Sur d’autres sites (13491)

  • fate/lavf-* : Add missing dependency on pipe protocol

    18 septembre 2022, par Andreas Rheinhardt
    fate/lavf-* : Add missing dependency on pipe protocol
    

    Forgotten in bf1337f99c66ac574c6e4da65c305ca878f1d65d.

    Signed-off-by : Andreas Rheinhardt <andreas.rheinhardt@outlook.com>

    • [DH] tests/fate/lavf-audio.mak
    • [DH] tests/fate/lavf-container.mak
    • [DH] tests/fate/lavf-image.mak
    • [DH] tests/fate/lavf-image2pipe.mak
    • [DH] tests/fate/lavf-video.mak
  • ffmpeg process how to read from pipe to pipe in c#

    28 janvier 2024, par greg

    I need to read audio data from stream 1 to stream 2 passing the data through ffmpeg.&#xA;It works great when i input data from file and output to pipe :

    &#xA;

    Process? CreateStream()&#xA;{&#xA;    return Process.Start(new ProcessStartInfo&#xA;    {&#xA;        FileName = @"sources\ffmpeg",&#xA;        Arguments = @"-i input.mp3 -f s16le pipe:1",&#xA;        UseShellExecute = false,&#xA;        RedirectStandardOutput = true&#xA;    });&#xA;}&#xA;

    &#xA;

    Or when i input data from pipe and output to file :

    &#xA;

    Process? CreateStream()&#xA;{&#xA;    return Process.Start(new ProcessStartInfo&#xA;    {&#xA;        FileName = @"sources\ffmpeg",&#xA;        Arguments = @"-i pipe: -f s16le output.file",&#xA;        UseShellExecute = false,&#xA;        RedirectStandardInput = true&#xA;    });&#xA;}&#xA;

    &#xA;

    But if i try to do both :

    &#xA;

    Process? CreateStream()&#xA;{&#xA;    return Process.Start(new ProcessStartInfo&#xA;    {&#xA;        FileName = @"sources\ffmpeg",&#xA;        Arguments = @"-i pipe:0 -f s16le pipe:1",&#xA;        UseShellExecute = false,&#xA;        RedirectStandardInput = true,&#xA;        RedirectStandardOutput = true&#xA;    });&#xA;}&#xA;

    &#xA;

    Runtime will hang in place printing :

    &#xA;

    &#xA;

    Input #0, matroska,webm, from 'pipe:0' :&#xA;Metadata :&#xA;encoder : google/video-file&#xA;Duration : 00:04:15.38, start : -0.007000, bitrate : N/A&#xA;Stream #0:0(eng) : Audio : opus, 48000 Hz, stereo, fltp (default)&#xA;Stream mapping :&#xA;Stream #0:0 -> #0:0 (opus (native) -> pcm_s16le (native))

    &#xA;

    Output #0, s16le, to 'pipe:1' :&#xA;Metadata :&#xA;encoder : Lavf59.27.100&#xA;Stream #0:0(eng) : Audio : pcm_s16le, 48000 Hz, stereo, s16, 1536 kb/s (default)&#xA;Metadata :&#xA;encoder : Lavc59.37.100 pcm_s16le

    &#xA;

    &#xA;

    main function code (it is the same for all examples) :

    &#xA;

    async Task Do()&#xA;{&#xA;    using (var ffmpeg = CreateStream())&#xA;    {&#xA;        if (ffmpeg == null) return;&#xA;&#xA;        using (var audioStream = GetAudioStream())&#xA;        {&#xA;            await audioStream.CopyToAsync(ffmpeg.StandardInput.BaseStream);&#xA;            ffmpeg.StandardInput.Close();&#xA;        }&#xA;&#xA;        //runtime will hang in here&#xA;&#xA;        Console.WriteLine("\n\ndone\n\n"); //this won&#x27;t be printed&#xA;&#xA;        using (var outputStream = CreatePCMStream())&#xA;        {&#xA;            try&#xA;            {&#xA;                await ffmpeg.StandardOutput.BaseStream.CopyToAsync(outputStream);&#xA;            }&#xA;            finally&#xA;            {&#xA;                await outputStream.FlushAsync();&#xA;            }&#xA;        }&#xA;    }&#xA;}&#xA;

    &#xA;

    And the most interesting is if i remove RedirectStandardOutput = true string programm will work as expected printing a bunch of raw data to the console.

    &#xA;

    I'd like to solve this problem without using any intermediate files and so on.

    &#xA;

  • Matplotlib pipe canvas.draw() to ffmpeg - unexpected result [duplicate]

    31 juillet 2022, par Narusan

    I'm using this code from here to try and pipe multiple matplotlib plots into ffmpeg to write a video file :

    &#xA;

    import numpy as np&#xA;import matplotlib.pyplot as plt&#xA;import subprocess&#xA;&#xA;xlist = np.random.randint(100,size=100)&#xA;ylist = np.random.randint(100, size=100)&#xA;color = np.random.randint(2, size=100)&#xA;&#xA;f = plt.figure(figsize=(5,5), dpi = 300)&#xA;canvas_width, canvas_height = f.canvas.get_width_height()&#xA;ax = f.add_axes([0,0,1,1])&#xA;ax.axis(&#x27;off&#x27;)&#xA;&#xA;&#xA;# Open an ffmpeg process&#xA;outf = &#x27;ffmpeg.mp4&#x27;&#xA;cmdstring = (&#x27;ffmpeg&#x27;,&#xA;    &#x27;-y&#x27;, &#x27;-r&#x27;, &#x27;30&#x27;, # overwrite, 30fps&#xA;    &#x27;-s&#x27;, &#x27;%dx%d&#x27; % (canvas_width, canvas_height), # size of image string&#xA;    &#x27;-pix_fmt&#x27;, &#x27;argb&#x27;, # format&#xA;    &#x27;-f&#x27;, &#x27;rawvideo&#x27;,  &#x27;-i&#x27;, &#x27;-&#x27;, # tell ffmpeg to expect raw video from the pipe&#xA;    &#x27;-vcodec&#x27;, &#x27;mpeg4&#x27;, outf) # output encoding&#xA;p = subprocess.Popen(cmdstring, stdin=subprocess.PIPE)&#xA;&#xA;# Draw 1000 frames and write to the pipe&#xA;for frame in range(10):&#xA;    print("Working on frame")&#xA;    # draw the frame&#xA;    f = plt.figure(figsize=(5,5), dpi=300)&#xA;    ax = f.add_axes([0,0,1,1])&#xA;    ax.scatter(xlist, ylist,&#xA;               c=color, cmap = &#x27;viridis&#x27;)&#xA;    f.canvas.draw()&#xA;    plt.show()&#xA;&#xA;    # extract the image as an ARGB string&#xA;    string = f.canvas.tostring_argb()&#xA;    # write to pipe&#xA;    p.stdin.write(string)&#xA;&#xA;# Finish up&#xA;p.communicate()&#xA;

    &#xA;

    While plt.show() does show the correct plot (see image below), the video that ffmpeg creates is a bit different than what plt.show() shows. I am presuming the issue is with f.canvas.draw(), but I'm not sure how to get a look at what canvas.draw() actually plots.

    &#xA;

    plot.show() :&#xA;enter image description here

    &#xA;

    ffmpeg video (imgur link)

    &#xA;