Recherche avancée

Médias (91)

Autres articles (62)

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 est la première version de MediaSPIP stable.
    Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • MediaSPIP version 0.1 Beta

    16 avril 2011, par

    MediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Les autorisations surchargées par les plugins

    27 avril 2010, par

    Mediaspip core
    autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs

Sur d’autres sites (9537)

  • avfilter/vf_geq : use per-thread AVExpr for expression evaluation

    28 décembre 2019, par Marton Balint
    avfilter/vf_geq : use per-thread AVExpr for expression evaluation
    

    There was no consensus about separating AVExprState from AVExpr so here is a
    minimal patch using the existing AVExpr to fix ticket #7528.

    Signed-off-by : Marton Balint <cus@passwd.hu>

    • [DH] doc/filters.texi
    • [DH] libavfilter/vf_geq.c
  • Hardware Accelerated H264 Decode using DirectX11 in Unity Plugin for UWP

    8 janvier 2019, par rohit n

    I’ve built an Unity plugin for my UWP app which converts raw h264 packets to RGB data and renders it to a texture. I’ve used FFMPEG to do this and it works fine.

    int framefinished = avcodec_send_packet(m_pCodecCtx, &amp;packet);
    framefinished = avcodec_receive_frame(m_pCodecCtx, m_pFrame);
    // YUV to RGB conversion and render to texture after this

    Now, I’m trying to shift to hardware based decoding using DirectX11 DXVA2.0.

    Using this : https://docs.microsoft.com/en-us/windows/desktop/medfound/supporting-direct3d-11-video-decoding-in-media-foundation

    I was able to create a decoder(ID3D11VideoDecoder) but I don’t know how to supply it the raw H264 packets and get the YUV or NV12 data as output.
    (Or if its possible to render the output directly to the texture since I can get the ID3D11Texture2D pointer)

    so my question is, How do you send the raw h264 packets to this decoder and get the output from it ?

    Also, this is for real time operation so I’m trying to achieve minimal latency.

    Thanks in advance !

  • ffmpeg trimming audio WAV files and setting timecode

    14 juillet 2022, par user19551045

    I am currently trying to cut an audio file to match the length of a video (without combining the two...just looking at timecodes) and produce a trimmed audio file that has a timecode that will match up with the video, the video is considered the absolute truth.

    &#xA;

    Currently, the issue is that the timecodes from the original audio file do not get carried over into the new cropped audio file. So, the starting timecode is now 00:00:00:00 instead of say 07:20:02:14. Even using the -timecode commands and trying to hardcode the timecode that way doesn't seem to do the trick. I am wondering if there is any way around this ? I just want to do as minimal to the raw audio as possible...just change the audio file's length while setting the timecodes so the new audio will line up with the video. Any thoughts/suggestions welcome !

    &#xA;

    Currently I have tried two options that don't seem to work :&#xA;using ffmpeg cmds :

    &#xA;

    &#xA;        cmd2 = r&#x27;{} -ss "{}" -i "{}" -codec copy -timecode "{}" "{}"&#x27;.format(&#xA;            FFMPEG_PATH,&#xA;            abs(tc_diff_in_seconds),&#xA;            audio_path,&#xA;            "17074647",&#xA;            out_path&#xA;        )&#xA;

    &#xA;

    and also using pydub :

    &#xA;

            current_audio = AudioSegment.from_wav("{}".format(audio_path))&#xA;        start_time_in_milli = abs(tc_diff_in_seconds*1000)&#xA;        end_time_in_milli = start_time_in_milli &#x2B; video_dur_in_seconds * 1000&#xA;        trimmed_audio = current_audio[start_time_in_milli:end_time_in_milli]&#xA;        trimmed_audio.export(&#x27;{}&#x27;.format(out_path), format=&#x27;WAV&#x27;, parameters=["-timecode", "17:07:46:47"])&#xA;

    &#xA;

    Any thoughts/suggestions welcome ! Thanks

    &#xA;