Recherche avancée

Médias (2)

Mot : - Tags -/doc2img

Autres articles (60)

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 est la première version de MediaSPIP stable.
    Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • MediaSPIP version 0.1 Beta

    16 avril 2011, par

    MediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Personnaliser les catégories

    21 juin 2013, par

    Formulaire de création d’une catégorie
    Pour ceux qui connaissent bien SPIP, une catégorie peut être assimilée à une rubrique.
    Dans le cas d’un document de type catégorie, les champs proposés par défaut sont : Texte
    On peut modifier ce formulaire dans la partie :
    Administration > Configuration des masques de formulaire.
    Dans le cas d’un document de type média, les champs non affichés par défaut sont : Descriptif rapide
    Par ailleurs, c’est dans cette partie configuration qu’on peut indiquer le (...)

Sur d’autres sites (12003)

  • Streaming Webcam Over LAN : HTML5 Video Element Not Loading

    27 novembre 2023, par Franck Freiburger

    I am currently working on a project where I aim to stream my webcam over my LAN and read the stream in an HTML5 video element with minimal setup. My setup involves a server (192.168.0.1 dev/video0 -> ffmpeg) and a client (192.168.0.2 html5 browser). I am using ffmpeg with the codec set to h264.

    


    Here is the ffmpeg command I am using :

    


    ffmpeg -f video4linux2 -i /dev/video0
  -an -c:v libx264 -b:v 1024k -video_size 800x600 -pix_fmt yuv420p -preset ultrafast
  -tune zerolatency -g 16 -keyint_min 16 -f mpegts pipe:1


    


    This command is spawned by a simple Node.js server that shares this stream without any transformation (just pipe ffpmeg stream to each incoming connection).

    


    When I use vlc or ffplay with the following command, it works very well :

    


    ffplay -fflags nobuffer -flags low_delay -probesize 32 -analyzeduration 0 -framedrop http://192.168.0.1:3000/stream


    


    I can even run multiple instances of ffplay and the video is properly played. However, when I try to use the HTML5 element like this :

    


    <video src="http://127.0.0.1:3000/stream" type="video/mp4"></video>&#xA;

    &#xA;

    The video seems to "load forever" without any error, nothing suspect in chrome://media-internals. I can see in the network tab that the network is reading the stream, but the video does not play (got same result using hljs and videojs).

    &#xA;

    loading forever

    &#xA;

    I am looking for help to understand :

    &#xA;

      &#xA;
    • What is wrong with the <video></video> element in this context ?
    • &#xA;

    • Is there a better approach to achieve this ?
    • &#xA;

    &#xA;

    Any help or guidance would be greatly appreciated.

    &#xA;

  • FFmpeg chromakey libavfilter using C-API - key/replace green with alpha transparency

    3 juin 2020, par ZeroDefect

    I'm trying to use the FFmpeg chromakey libavfilter (via the C-API using C++17) to key some green pixels in a YUVA422p image and replace them with alpha transparency.

    &#xA;&#xA;

    Now, I setup/initialise the graph, connect the filters, and push through a frame ; however, the output frame appears unchanged. I suspect one of my configuration parameters is incorrect, but I'm really unsure. After having read the pertinent documentation, I still don't understand the problem.

    &#xA;&#xA;

    I have published a (minimal) code sample in github - https://github.com/zerodefect/chromakey_test. I have tried to keep the code sample as brief as possible but it is still a bit lengthy.

    &#xA;&#xA;

    The code sample includes a sample image (green_screen.png) for the purposes of testing.

    &#xA;&#xA;

    To run the application, the following parameters are required :

    &#xA;&#xA;

    &#xA;

    ./cb_chroma_key_test ./green_screen.png [OUTPUT_PATH]

    &#xA;

    &#xA;&#xA;

    The application dumps out a PLANAR image at YUV422p which I then load in via rawpixels.net - a brilliant little online utility to view raw image data (packed or planar).

    &#xA;&#xA;

    My avfilter graph consists of :

    &#xA;&#xA;

    &#xA;

    buffersrc -> format -> chromakey -> buffersink

    &#xA;

    &#xA;&#xA;

    The format filter is taking the RGBA (packed) format and converting it to YUVA422 planar.

    &#xA;&#xA;

      &#xA;
    • GCC 8.4
    • &#xA;

    • Ubuntu 18.04
    • &#xA;

    • FFmpeg 4.2
    • &#xA;

    &#xA;

  • FFMPEG - Struggling to find correct input audio codec parameters on macOS

    20 septembre 2024, par Xavi

    I am trying to read my external stereo microphone with ffmpeg within my Qt Windows+macOs application, but I am struggling to obtain consistent correct input codec parameters on macOs. My findings and suspicions so far :

    &#xA;

    The code I'm using in macOs is the following, where everything returns a successful return code :

    &#xA;

     avdevice_register_all();&#xA; &#xA; //macOs only, the same code in windows looks for "dshow" &#xA; const AVInputFormat *inputFormat = av_find_input_format("avfoundation");&#xA; &#xA; AVFormatContext* inputFormatContext;&#xA; avformat_open_input(&amp;inputFormatContext, inputDevice, inputFormat, NULL);&#xA;&#xA; avformat_find_stream_info(inputFormatContext, NULL);&#xA; &#xA; //... allocate the codec context for the single input stream and&#xA; // copy the parameters from the stream to the context&#xA;&#xA;

    &#xA;

    In my standalone minimal reproducer this always results on the codec ID of the single stream being AV_CODEC_ID_PCM_F32LE, in both macOS and Windows. When I integrate this code in my Qt application on Windows, I get the same result. However, on macOS, most of the times results in the codec id of the stream being AV_CODEC_ID_PCM_S16LE (via AV_CODEC_ID_FIRST_AUDIO) and sometimes AV_CODEC_ID_PCM_F32LE. Both sample formats are supported by my microphone.

    &#xA;

    AV_CODEC_ID_PCM_F32LE always results in a correct output. AV_CODEC_ID_PCM_S16LE results on buzzy noisy audio slowed down to 0.5x, and If in this case I decode with AV_CODEC_ID_PCM_F32LE instead of copying the codec parameters from the stream, the output sounds correct again.

    &#xA;

    I am trying to write generic code, so while enforcing the AV_CODEC_ID_PCM_F32LE codec works, I'd rather understand what is happening.

    &#xA;

    What am I missing ? Is Qt interacting in some way that I can't think of ? I am compiling and linking my own ffmpeg libraries (6.1.1) and not using Qt's ones.

    &#xA;