Recherche avancée

Médias (91)

Autres articles (74)

  • Encodage et transformation en formats lisibles sur Internet

    10 avril 2011

    MediaSPIP transforme et ré-encode les documents mis en ligne afin de les rendre lisibles sur Internet et automatiquement utilisables sans intervention du créateur de contenu.
    Les vidéos sont automatiquement encodées dans les formats supportés par HTML5 : MP4, Ogv et WebM. La version "MP4" est également utilisée pour le lecteur flash de secours nécessaire aux anciens navigateurs.
    Les documents audios sont également ré-encodés dans les deux formats utilisables par HTML5 :MP3 et Ogg. La version "MP3" (...)

  • Monitoring de fermes de MediaSPIP (et de SPIP tant qu’à faire)

    31 mai 2013, par

    Lorsque l’on gère plusieurs (voir plusieurs dizaines) de MediaSPIP sur la même installation, il peut être très pratique d’obtenir d’un coup d’oeil certaines informations.
    Cet article a pour but de documenter les scripts de monitoring Munin développés avec l’aide d’Infini.
    Ces scripts sont installés automatiquement par le script d’installation automatique si une installation de munin est détectée.
    Description des scripts
    Trois scripts Munin ont été développés :
    1. mediaspip_medias
    Un script de (...)

  • Participer à sa traduction

    10 avril 2011

    Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
    Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
    Actuellement MediaSPIP n’est disponible qu’en français et (...)

Sur d’autres sites (14130)

  • I want to separate MPEG2ts data into images and metadata (klv)

    4 août 2020, par 夏目たかし

    please. Help me.
    
I would like to separate the streamed MPEG2ts data into images and metadata (klv).

    


    Delivery
    
ffmpeg -fflags +genpts -re -i NightFlightIR.mpg -f mpegts -c copy -map 0:v -map 0:d udp ://127.0.0.1:5004
    

    
reception
    
ffmpeg -i 'udp ://127.0.0.1:5004' -vsync 0 -q:v 2 -f image2 -update 1 img.jpg -c copy -map d:0 -f data klv.bin
    

    
The image is output, but the klv.bin is empty.
    

    
This command outputs data to standard output, but cannot output to a file.
    
ffmpeg -i 'udp ://127.0.0.1:5004' -vsync 0 -q:v 2 -f image2 -update 1 img.jpg -c copy -map d:0 -f data -
    

    
On ffmpeg2.8.6, the klv.bin contains data, but on 3.x and 4.x, it's empty.
    
Is it possible to write klv data to klv.bin on 4.x ?

    


  • QAudioSink play AVFrame data decoded by ffmpeg

    26 mai 2022, par liuyulvv

    I want to using QAudioSink to play PCM data decoded by ffmpeg.

    


    I first try to play a pcm file and I made it :

    


    Here is the override function readData of QIODevice

    


    qint64 PCMDevice::readData(char *data, qint64 maxlen)
{
    int len = m_inputFile.size();
    len = len < maxlen ? len : maxlen;

    m_inputFile.read(data, len);
    return len;
}


    


    And I get the right result, the file is playing.

    


    But I want to play AVFrame data from the memory :

    


    qint64 PCMDevice::readData(char *data, qint64 maxlen)
{
    AVFrame *res = getFrame();
    if (res == nullptr)
        return 0;

    // Something wrong here
    auto ret = res->nb_samples;
    memcpy(data, res->data[0], ret);

    delete res;
    res = nullptr;
    return ret;
}


    


    How to make AVFrame's data to the data that QAudioSink need ?

    


    I'm pretty sure I'm using the correct sample_fmt, sample_rate etc.

    


    Where is the data of the stereo AVFrame and how to copy it to the data correctly ?

    


  • Is raw audio in AVFrame->data the same as LPCM ?

    4 décembre 2023, par CheekyChips

    In the ffmpeg documentation for an AVFrame it says

    


    


    This structure describes decoded (raw) audio or video data.

    


    


    In the case of audio data, what format are the samples within an AVFrame in ? Do they basically look like raw LPCM samples ? If you decode audio data into an AVFrame (i.e. via avcodec_send_packet() ... avcodec_receive_frame()) does the audio data of the packet look the same, regardless of what encoding it was originally in in the packet (assuming the same sample rate, sample format, etc) ?

    


    Based on the question How is decoded audio data stored in ffmpeg AVFrame ? it seems like this is the case, but I want to know if this is the same as LPCM, regardless of what encoding the audio data was in before ?

    


    Bonus question : If it is the same as LPCM, why would you use a PCM encoder (e.g. ""pcm_f32le") to encode the frame data to AVPackets ? Does the internal data look the same ? Is it just in order to use functions that take AVPackets like av_interleaved_write_frame()