Recherche avancée

Médias (0)

Mot : - Tags -/albums

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (46)

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 est la première version de MediaSPIP stable.
    Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Mise à disposition des fichiers

    14 avril 2011, par

    Par défaut, lors de son initialisation, MediaSPIP ne permet pas aux visiteurs de télécharger les fichiers qu’ils soient originaux ou le résultat de leur transformation ou encodage. Il permet uniquement de les visualiser.
    Cependant, il est possible et facile d’autoriser les visiteurs à avoir accès à ces documents et ce sous différentes formes.
    Tout cela se passe dans la page de configuration du squelette. Il vous faut aller dans l’espace d’administration du canal, et choisir dans la navigation (...)

  • Installation en mode ferme

    4 février 2011, par

    Le mode ferme permet d’héberger plusieurs sites de type MediaSPIP en n’installant qu’une seule fois son noyau fonctionnel.
    C’est la méthode que nous utilisons sur cette même plateforme.
    L’utilisation en mode ferme nécessite de connaïtre un peu le mécanisme de SPIP contrairement à la version standalone qui ne nécessite pas réellement de connaissances spécifique puisque l’espace privé habituel de SPIP n’est plus utilisé.
    Dans un premier temps, vous devez avoir installé les mêmes fichiers que l’installation (...)

Sur d’autres sites (6211)

  • ffmpeg trimming audio WAV files and setting timecode

    14 juillet 2022, par user19551045

    I am currently trying to cut an audio file to match the length of a video (without combining the two...just looking at timecodes) and produce a trimmed audio file that has a timecode that will match up with the video, the video is considered the absolute truth.

    


    Currently, the issue is that the timecodes from the original audio file do not get carried over into the new cropped audio file. So, the starting timecode is now 00:00:00:00 instead of say 07:20:02:14. Even using the -timecode commands and trying to hardcode the timecode that way doesn't seem to do the trick. I am wondering if there is any way around this ? I just want to do as minimal to the raw audio as possible...just change the audio file's length while setting the timecodes so the new audio will line up with the video. Any thoughts/suggestions welcome !

    


    Currently I have tried two options that don't seem to work :
using ffmpeg cmds :

    


    
        cmd2 = r'{} -ss "{}" -i "{}" -codec copy -timecode "{}" "{}"'.format(
            FFMPEG_PATH,
            abs(tc_diff_in_seconds),
            audio_path,
            "17074647",
            out_path
        )


    


    and also using pydub :

    


            current_audio = AudioSegment.from_wav("{}".format(audio_path))
        start_time_in_milli = abs(tc_diff_in_seconds*1000)
        end_time_in_milli = start_time_in_milli + video_dur_in_seconds * 1000
        trimmed_audio = current_audio[start_time_in_milli:end_time_in_milli]
        trimmed_audio.export('{}'.format(out_path), format='WAV', parameters=["-timecode", "17:07:46:47"])


    


    Any thoughts/suggestions welcome ! Thanks

    


  • Hardware Accelerated H264 Decode using DirectX11 in Unity Plugin for UWP

    8 janvier 2019, par rohit n

    I’ve built an Unity plugin for my UWP app which converts raw h264 packets to RGB data and renders it to a texture. I’ve used FFMPEG to do this and it works fine.

    int framefinished = avcodec_send_packet(m_pCodecCtx, &packet);
    framefinished = avcodec_receive_frame(m_pCodecCtx, m_pFrame);
    // YUV to RGB conversion and render to texture after this

    Now, I’m trying to shift to hardware based decoding using DirectX11 DXVA2.0.

    Using this : https://docs.microsoft.com/en-us/windows/desktop/medfound/supporting-direct3d-11-video-decoding-in-media-foundation

    I was able to create a decoder(ID3D11VideoDecoder) but I don’t know how to supply it the raw H264 packets and get the YUV or NV12 data as output.
    (Or if its possible to render the output directly to the texture since I can get the ID3D11Texture2D pointer)

    so my question is, How do you send the raw h264 packets to this decoder and get the output from it ?

    Also, this is for real time operation so I’m trying to achieve minimal latency.

    Thanks in advance !

  • avfilter/vf_geq : use per-thread AVExpr for expression evaluation

    28 décembre 2019, par Marton Balint
    avfilter/vf_geq : use per-thread AVExpr for expression evaluation
    

    There was no consensus about separating AVExprState from AVExpr so here is a
    minimal patch using the existing AVExpr to fix ticket #7528.

    Signed-off-by : Marton Balint <cus@passwd.hu>

    • [DH] doc/filters.texi
    • [DH] libavfilter/vf_geq.c