
Recherche avancée
Autres articles (70)
-
Des sites réalisés avec MediaSPIP
2 mai 2011, parCette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page. -
Participer à sa traduction
10 avril 2011Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
Actuellement MediaSPIP n’est disponible qu’en français et (...) -
MediaSPIP v0.2
21 juin 2013, parMediaSPIP 0.2 est la première version de MediaSPIP stable.
Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)
Sur d’autres sites (10304)
-
How to split each channel data of the recording [on hold]
4 décembre 2018, par MikeDuring the mass production process, the 4-channel data of the microphone recording is split into the data of each channel.
How to use ffmpeg split each channel data of the recording
-
Do I need an AVFormatContext for decoding raw audio data ?
4 décembre 2023, par CheekyChipsI am streaming encoded audio data to my program, in raw byte arrays. The audio data could have any encoding but when I receive the data I will know the encoding, sample rate, etc, so I know how to interpret it. Using ffmpeg/libav libraries, I want to decode the audio chunks when I receive them and do some processing with them (e.g. resampling). My question is, since I am getting raw encoded audio data that is not wrapped in a file format, do I still need to create a
AVFormatContext
and useav_read_frame()
to get the encodedAVPacket
? Or should I just create anAVPacket
usingav_packet_from_data(AVPacket *pkt, uint8_t *data, int size)
and manually set the properties like encoding, sample rate, etc ? It is my understanding thatAVFormatContext
is meant for representing file formats, i.e. wrappers, so I don't know if it would work if I use raw encoded audio data (which I would access through a customAVIOContext
). Also, since I want to support lots of different audio codecs as input, I don't know if the different frame sizes for different codecs will make it difficult to create anAVPacket
, if I have the wrong number of samples in my data array, so maybe anAVFormatContext
would be better.

Which is the better approach for decoding raw encoded audio chunks - creating an
AVFormatContext
orAVPacket
s ?

-
Named pipes and can they stream data ?
30 juillet 2013, par chembradI asked a previous question here :
Stream video from ffmpeg and capture with OpenCV
and I want to know more about named pipes in general. Can I use named pipes to stream data ? For example, can I continuously add data to the pipe (via ffmpeg) in conjunction with reading data with another application ? Or is there another method to do this ?