
Recherche avancée
Médias (3)
-
Exemple de boutons d’action pour une collection collaborative
27 février 2013, par
Mis à jour : Mars 2013
Langue : français
Type : Image
-
Exemple de boutons d’action pour une collection personnelle
27 février 2013, par
Mis à jour : Février 2013
Langue : English
Type : Image
-
Collections - Formulaire de création rapide
19 février 2013, par
Mis à jour : Février 2013
Langue : français
Type : Image
Autres articles (51)
-
Organiser par catégorie
17 mai 2013, parDans MédiaSPIP, une rubrique a 2 noms : catégorie et rubrique.
Les différents documents stockés dans MédiaSPIP peuvent être rangés dans différentes catégories. On peut créer une catégorie en cliquant sur "publier une catégorie" dans le menu publier en haut à droite ( après authentification ). Une catégorie peut être rangée dans une autre catégorie aussi ce qui fait qu’on peut construire une arborescence de catégories.
Lors de la publication prochaine d’un document, la nouvelle catégorie créée sera proposée (...) -
Multilang : améliorer l’interface pour les blocs multilingues
18 février 2011, parMultilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela. -
Les autorisations surchargées par les plugins
27 avril 2010, parMediaspip core
autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs
Sur d’autres sites (7628)
-
How to trim a video using FFmpeg in Objective-C for iOS application
13 juillet 2015, par AnujAroshAI am trying to implement a sample iOS application that can trim a bundled video (.mp4) using FFmpeg library in Objective-C environment.
I used this script to compile and build the FFmpeg for iOS. Those libraries was added to the project but now I’m not sure how to continue it. How can I find which function do the trim behaviour and what are the supportive codecs and etc.
I am interesting do achieve this with out any wrapper but directly accessing the library functions. How can I do this ?
Update : 1
I believe following code snippet will contain the input video file details in a stream
NSString *filePath = [[NSBundle mainBundle] pathForResource:@"KeseMase" ofType:@".mp4"];
AVInputFormat *inputFormat = av_find_input_format([@"mp4" UTF8String]);
const char *utf8FilePath = [filePath UTF8String];
avformat_open_input(&pFormatCtx, utf8FilePath, inputFormat, nil);Or does it contain only the header information of the video file ?
Update : 2
With following code, I was able to convert input video to a stream of AVPacket and store them in a NSMutableArray
- (BOOL)readFrameIntoPacket:(AVPacket *)packet error:(NSError *__autoreleasing *)error
{
BOOL continueReading = YES;
int frameReadValue = av_read_frame(pFormatCtx, packet);
if (frameReadValue == 0)
{
NSLog(@"%s - %d # Read next frame", __PRETTY_FUNCTION__, __LINE__);
continueReading = YES;
NSValue *value = [NSValue valueWithBytes:&packet objCType:@encode(AVPacket)];
[srcPktArr addObject:value];
}
else
{
continueReading = NO;
av_free_packet(packet);
}
return continueReading;
}Tasks remain to solve the question are :
1.) How to use those AVPackets to and write a Video file
2.) How to give a start time and end time and write only that part to a video file
Update : 3
Okay... then I try to write those packets to an out put file like below
- (BOOL)writePacket:(AVPacket *)packet error:(NSError *__autoreleasing *)error
{
int writeValue = av_write_frame(outputContext, packet);
if (writeValue == 0)
{
return YES;
}
else if (writeValue == 1)
{
return YES;
}
else
{
return NO;
}
}and ended up with following error
[mp4 @ 0x1c04a200] Invalid packet stream index : 17467852
Update : 4
Okay guys, I get this far.
-
Encoding base64 frames to a video with ffmpeg from a C# .NET application
9 mars 2021, par nmkdI have PNG images stored as base64 strings in RAM and want to encode those into a video using ffmpeg, without having to store them on the disk first.


Is this possible at all ? FFmpeg's
image2pipe
demuxer allows piping images from stdin, but this doesn't seem to work for base64 strings.

-
How to capture app audio using LIBAV on QT application
17 février 2021, par Aramis RomeroI am working on a QT application that is intended to stream its gui and audio. Currently i'm able to capture the rendered frames using QOffscreenSurface(there is an example called rendercontrol in QT sources) and to create the AVFrame for each one. The stream looks good, but now i need to add the application's audio. I know there are ways of capturing audio from system audio input devices, but i can't figure out how to obtain the audio samples from the app(windows or linux).