Recherche avancée

Médias (0)

Mot : - Tags -/content

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (34)

  • La file d’attente de SPIPmotion

    28 novembre 2010, par

    Une file d’attente stockée dans la base de donnée
    Lors de son installation, SPIPmotion crée une nouvelle table dans la base de donnée intitulée spip_spipmotion_attentes.
    Cette nouvelle table est constituée des champs suivants : id_spipmotion_attente, l’identifiant numérique unique de la tâche à traiter ; id_document, l’identifiant numérique du document original à encoder ; id_objet l’identifiant unique de l’objet auquel le document encodé devra être attaché automatiquement ; objet, le type d’objet auquel (...)

  • Ajouter notes et légendes aux images

    7 février 2011, par

    Pour pouvoir ajouter notes et légendes aux images, la première étape est d’installer le plugin "Légendes".
    Une fois le plugin activé, vous pouvez le configurer dans l’espace de configuration afin de modifier les droits de création / modification et de suppression des notes. Par défaut seuls les administrateurs du site peuvent ajouter des notes aux images.
    Modification lors de l’ajout d’un média
    Lors de l’ajout d’un média de type "image" un nouveau bouton apparait au dessus de la prévisualisation (...)

  • Support de tous types de médias

    10 avril 2011

    Contrairement à beaucoup de logiciels et autres plate-formes modernes de partage de documents, MediaSPIP a l’ambition de gérer un maximum de formats de documents différents qu’ils soient de type : images (png, gif, jpg, bmp et autres...) ; audio (MP3, Ogg, Wav et autres...) ; vidéo (Avi, MP4, Ogv, mpg, mov, wmv et autres...) ; contenu textuel, code ou autres (open office, microsoft office (tableur, présentation), web (html, css), LaTeX, Google Earth) (...)

Sur d’autres sites (11015)

  • stream a video file using srt protocol [closed]

    13 novembre 2022, par programmer

    I want to stream a file over the network from a server. I will need to
send the AVFormatContext, and individual AVPackets over the network.For this reason i use libav library(ffmpeg) and srt protocol to send to specific port. But i can not find a function that send avpackets in srt. I find srt_sendmsg() function but it is not usable in this case.Does it have any solution ?
thanks in advance.

    


    As i say i want to design a srt server that streams specific file. it should read the video file and then send it on specific port that clients can connect to that and receive live stream.I want to use c++ programming , libav libraray and srt protocol

    


  • Is it possible to pipe an ffmpeg output with multiple files (HLS or DASH)

    29 août 2020, par New Dev

    I'm using FFmpeg to generate fragmented MP4s in a dash and HLS format.

    


    ffmpeg -i input.mov -f dash -seg_duration 6 -hls_playlist true output.mbd


    


    The above (simplified) command outputs multiple files, in addition to output.mdb (e.g. actual segments, master.m3u8, etc...)

    


    Is there a way to get each produced file into their individual and separate output streams ?

    



    


    Broader context :

    


    I'm trying to build a transcoder in Node.js running in Google Cloud, with the idea being that it writes directly to a Google Storage through a writable stream. I can only create a stream per file, but since the number of files is dynamic, I'm not sure how to obtain a stream from each file.

    


  • How to detect silence in a pyAV AudioFrame ?

    29 janvier 2024, par Sachin Dole

    I want to process streaming audio (coming in from a person speaking on the peer of a webRTC peer connection) to detect when the person is done talking. I have got the audio track and access to individual frames. I see that each frame can be converted to an nd_array using Frame.to_ndarray. I can also see values in the ndarray changing depending on what the person is speaking, what pitch, what volume etc. Now, I want to detect silence on the stream. My question is what is in the ndarray and how can I make sense of the data ?

    


            while True:
            try:
                frame:AudioFrame = await track.recv()
                frame_nd_array = frame.to_ndarray() 


    


    Where can I learn what is in the frame_nd_array ?