Recherche avancée

Médias (0)

Mot : - Tags -/content

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (31)

  • La file d’attente de SPIPmotion

    28 novembre 2010, par

    Une file d’attente stockée dans la base de donnée
    Lors de son installation, SPIPmotion crée une nouvelle table dans la base de donnée intitulée spip_spipmotion_attentes.
    Cette nouvelle table est constituée des champs suivants : id_spipmotion_attente, l’identifiant numérique unique de la tâche à traiter ; id_document, l’identifiant numérique du document original à encoder ; id_objet l’identifiant unique de l’objet auquel le document encodé devra être attaché automatiquement ; objet, le type d’objet auquel (...)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

  • Les formats acceptés

    28 janvier 2010, par

    Les commandes suivantes permettent d’avoir des informations sur les formats et codecs gérés par l’installation local de ffmpeg :
    ffmpeg -codecs ffmpeg -formats
    Les format videos acceptés en entrée
    Cette liste est non exhaustive, elle met en exergue les principaux formats utilisés : h264 : H.264 / AVC / MPEG-4 AVC / MPEG-4 part 10 m4v : raw MPEG-4 video format flv : Flash Video (FLV) / Sorenson Spark / Sorenson H.263 Theora wmv :
    Les formats vidéos de sortie possibles
    Dans un premier temps on (...)

Sur d’autres sites (3052)

  • How to decode and display real-time H264 stream using ffmpeg in Python ?

    25 mars 2022, par yiiiiiiiran

    I would like to port the live stream to ffmpeg and display it in real time using Python.

    


    Anyone knows how to port the stream to PIPE ? And in the mean time to display it after decoding ?

    


    I managed to get real-time stream from my Raspberry Pi3 to Windows PC, using RS232 connection with Baud Rate 2M.

    


    The format of the stream is in H264. The data package I get for each frame is in .
In order for the program to know when does each package ends, I've add

    


    bytes([0xcc,0xdd,0xee,0xff])


    


    to the end of package. So that my serial port will read for a package until it sees those bytes.

    


    Lets assume the stream WIDTH, HEIGHT, NUM_FRAMES, FPS = 320, 240, 90, 30

    


    I have the command for decode the h264 stream :

    


    cmd = ["C:/XXXXXX/ffmpeg.exe",
    "-probesize", "32",
    "-flags", "low_delay",
    "-f", "h264",
    "-i", "pipe:",
    "-f", "rawvideo", "-pix_fmt", "rgb24", "-s", "384x216",
    "pipe:"]

decode_process = sp.Popen(cmd, stdin=sp.PIPE, stdout=sp.PIPE)


    


    The stream package I got is

    


    while datetime.now() &lt; end_time:&#xA;    pkg = ser.read_until(expected=bytes([0xcc,0xdd,0xee,0xff])) #output <class>&#xA;    frame_len = len(pkg)-4&#xA;    frame_inBytes = pkg[0:frame_len]&#xA;    decode_process.stdin.write(frame_inBytes)&#xA;</class>

    &#xA;

    I want to write the real time stream to PIPE however it shows error :

    &#xA;

    [h264 @ 0000017322a3e980] missing picture in access unit with size 48&#xA;[h264 @ 0000017322a3e980] no frame!&#xA;[h264 @ 0000017322a2d240] Stream #0: not enough frames to estimate rate; consider increasing probesize&#xA;[h264 @ 0000017322a2d240] Could not find codec parameters for stream 0 (Video: h264, none): unspecified size&#xA;Consider increasing the value for the &#x27;analyzeduration&#x27; (0) and &#x27;probesize&#x27; (32) options        &#xA;Input #0, h264, from &#x27;pipe:&#x27;:&#xA;  Duration: N/A, bitrate: N/A&#xA;  Stream #0:0: Video: h264, none, 25 tbr, 1200k tbn&#xA;Stream mapping:&#xA;  Stream #0:0 -> #0:0 (h264 (native) -> rawvideo (native))&#xA;[h264 @ 0000017322a3f180] no frame!&#xA;Error while decoding stream #0:0: Invalid data found when processing input&#xA;Cannot determine format of input stream 0:0 after EOF&#xA;Error marking filters as finished&#xA;Conversion failed!&#xA;

    &#xA;

  • How to capture movie with Gphoto2 + ffmpeg and redirect serve to html embed

    1er avril 2021, par Doglas Antonio Dembogurski Fei

    Iam trying to capture video from Panasonic DC-GH5 camera to serve this and access from browser withoud ffserver because ffserver is deprecated

    &#xA;

    Iam using Ubuntu 20.04

    &#xA;

    #gphoto2 -v&#xA;&#xA;&#xA;gphoto2         2.5.23         gcc, popt(m), exif, cdk, aa, jpeg, readline&#xA;libgphoto2      2.5.25         standard camlibs (SKIPPING lumix), gcc, ltdl, EXIF&#xA;libgphoto2_port 0.12.0         iolibs: disk ptpip serial usb1 usbdiskdirect usbscsi, gcc, ltdl, EXIF, USB, serial without locking&#xA;

    &#xA;

    Iam try this code

    &#xA;

    ffmpeg -f video4linux2 -s 640x480 -r 30 -i /dev/video0 -thread_queue_size 512 -ac 1 -f alsa -i pulse -f webm -listen 1 -seekable 0 -multiple_requests 1 http://localhost:8090&#xA;

    &#xA;

    and embed

    &#xA;

    <video src="http://localhost:8090"></video>&#xA;

    &#xA;

    in index.php but don`t appear anything.&#xA;If anyone knows a way to make a server for a specific port I would appreciate it&#xA;Thank you.

    &#xA;

  • How to access builtin webcam from a docker container using ffmpeg ?

    1er novembre 2020, par philippos

    I have wrote my code that captures videos by my builtin webcam of my MAC using ffmpeg.&#xA;
    On local machine, the code works fine. However, I built a docker container of my code, and tried to run it, but I got the following error :

    &#xA;

    error: Command failed: ffmpeg -f avfoundation -framerate 30 -i "0" -target pal-vcd -vf scale=640x480 -flags &#x2B;global_header -f segment -segment_time 10 -segment_list ../out.csv -segment_format_options movflags=&#x2B;faststart -reset_timestamps 1 -strftime 1 %Y%m%d-%H%M%S.mp4&#xA;ffmpeg version git-2016-05-25-9591ca7 Copyright (c) 2000-2016 the FFmpeg developers&#xA;  built with gcc 4.8 (Ubuntu 4.8.4-2ubuntu1~14.04.3)&#xA;  configuration: --extra-libs=-ldl --enable-gpl --enable-libass --enable-libfdk-aac --enable-libfontconfig --enable-libfreetype --enable-libfribidi --enable-libmp3lame --enable-libopus --enable-libtheora --enable-libvorbis --enable-libvpx --enable-libx264 --enable-nonfree --enable-openssl&#xA;  libavutil      55. 24.100 / 55. 24.100&#xA;  libavcodec     57. 43.100 / 57. 43.100&#xA;  libavformat    57. 37.100 / 57. 37.100&#xA;  libavdevice    57.  0.101 / 57.  0.101&#xA;  libavfilter     6. 46.100 /  6. 46.100&#xA;  libswscale      4.  1.100 /  4.  1.100&#xA;  libswresample   2.  0.101 /  2.  0.101&#xA;  libpostproc    54.  0.100 / 54.  0.100&#xA;Unknown input format: &#x27;avfoundation&#x27;&#xA;

    &#xA;

      &#xA;
    1. as far as what I understood from this log, is that the docker&#xA;container doesn't have access to local devices.
      According to&#xA;this discussion Docker - a way to give access to a host USB or&#xA;serial device ? , I need to use the --device flag to pass my&#xA;device's location.
      However, according to this answer,&#xA;that is not possible ?
    2. &#xA;

    3. In addition to what I've mentioned&#xA;above, I couldn't get my webcam's path at the first place. what is&#xA;a correct path for macbook webcam
    4. &#xA;

    &#xA;

    My question is : How to access my MAC's builtin camera to record from a docker container ?

    &#xA;