Recherche avancée

Médias (91)

Autres articles (57)

  • Qu’est ce qu’un éditorial

    21 juin 2013, par

    Ecrivez votre de point de vue dans un article. Celui-ci sera rangé dans une rubrique prévue à cet effet.
    Un éditorial est un article de type texte uniquement. Il a pour objectif de ranger les points de vue dans une rubrique dédiée. Un seul éditorial est placé à la une en page d’accueil. Pour consulter les précédents, consultez la rubrique dédiée.
    Vous pouvez personnaliser le formulaire de création d’un éditorial.
    Formulaire de création d’un éditorial Dans le cas d’un document de type éditorial, les (...)

  • Installation en mode ferme

    4 février 2011, par

    Le mode ferme permet d’héberger plusieurs sites de type MediaSPIP en n’installant qu’une seule fois son noyau fonctionnel.
    C’est la méthode que nous utilisons sur cette même plateforme.
    L’utilisation en mode ferme nécessite de connaïtre un peu le mécanisme de SPIP contrairement à la version standalone qui ne nécessite pas réellement de connaissances spécifique puisque l’espace privé habituel de SPIP n’est plus utilisé.
    Dans un premier temps, vous devez avoir installé les mêmes fichiers que l’installation (...)

  • Multilang : améliorer l’interface pour les blocs multilingues

    18 février 2011, par

    Multilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
    Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela.

Sur d’autres sites (10904)

  • ffmpeg : transcode over socket

    19 septembre 2020, par user14258924

    I am consuming multiple streams of h264 video and aac audio data in my own RTMP server and I want to transcode these streams into different codecs so I want to send these tracks, in chunks, into ffmpeg and get the transcoded result back. But due to performance requirements I want to use some kind of streaming where I can just open up a socket to get files in/out instead of dumping the data into individual files and then reading transcoded files back.

    


    Is it possible with ffmpeg ?

    


  • ffmpeg encoding for 3.0 and 3.1 channels in Dolby Digital format (.ac3)

    4 novembre 2019, par CC2023

    I was able to encode .wav to .ac3 (Dolby Digital) via.zz ffmpeg for channel 2.0, 2.1, 4.0, 4.1, 5.0, 5.1, but not channel 3.0 and 3.1.

    When I played back .ac3 files on Onkyo 7.2 receiver, error on channel 3.0 and 3.1 was :

    3.0 channels :

    right channel ok

    left channel ok

    center channel played back at subwoofer

    3.1 channels :

    right channel ok

    left channel ok

    lfe channel ok

    center channel played back at surround left speaker (sL)

    This is command I used :

    ffmpeg -i 3_channel.wav -c:a ac3 3_channel.ac3    
    ffmpeg -i 3_1_channel.wav -c:a ac3 3_1_channel.ac3

    My ffmpeg version git-2019-10-28-68f623d

    Why I have successful encoding on channel 2.x, 4.x, 5.x, but not 3.x ? thanks ahead for any comments.

  • Live streaming of processed frames to AWS

    22 avril 2021, par MinasCham

    I'm working on a project where i need to capture live video feed from an RTSP camera source, process the video frame-by-frame and stream the result to an AWS Service.

    


    So far, my solution :

    


      

    • Captures frames from the RTSP camera source using OpenCV and performs some processing.
    • 


    • Feeds the processed frames to an ffmpeg pipe that packages the content for online streaming (HTTP Live Streaming - hls) and saves it locally.
    • 


    • Transfers the media content to an Amazon Kinesis Video Stream using a Gstreamer pipeline element with kvssink as a sink element.
    • 


    


    My questions are :

    


      

    • Currently I'm saving the content both locally and on an Amazon Kinesis Video Stream. Is this efficient ?
    • 


    • Is it possible to directly stream the frames to the Amazon kinesis Video Stream (perhaps by connecting the ffmpeg output with the gstreamer pipeline element) ?
    • 


    • Is the file format suitable for this implementation or would it better to encode the media differently ?
    •