
Recherche avancée
Médias (1)
-
Rennes Emotion Map 2010-11
19 octobre 2011, par
Mis à jour : Juillet 2013
Langue : français
Type : Texte
Autres articles (54)
-
Les autorisations surchargées par les plugins
27 avril 2010, parMediaspip core
autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs -
Publier sur MédiaSpip
13 juin 2013Puis-je poster des contenus à partir d’une tablette Ipad ?
Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir -
Support audio et vidéo HTML5
10 avril 2011MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)
Sur d’autres sites (9075)
-
Combining audio and multiple videos with FFMPEG [closed]
6 novembre 2023, par Lee PI am working on a ffmpeg script to combine two videos with one audio file. The first video file should start after about 6 seconds and the second after about 40 seconds, and there should be a padding with a black screen between the two videos.
However, it only seems to add the first video clones the final frame as the padding.


Here is my current script :


ffmpeg -i video_0.mp4 -i video_1.mp4 -i audio.mp4 -filter_complex "[0:v] tpad=start_duration=5927ms:start_mode=add:color=black:stop_mode=add:color=black; [1:v] tpad=start_duration=44901ms:start_mode=add:color=black:stop_mode=add:color=blackconcat=n=2" -map 2:a -f mp4 -movflags +faststart composite_recording.mp4



The final video timing should be :


00:00-00:06 — black screen

00:06-00:24 — first video

00:24-00:40 — black screen

00:40-00:48 — second video

I tried setting different values for the tpad start_duration for the second video and expected it to start the second video at around 40 seconds into the audio, however it didn't change anything.


-
Unrecognized option 'crf'
6 septembre 2022, par Arjit KaushalI am trying compress video using ffmpeg but i am facing errors in the command.
Although it runs perfectly fine on my linux terminal.
( ffmpeg -i input.avi -vcodec libx264 -crf 24 output.avi)
.

my code :


void _compress() {
 if (_videoModel == null) return;
 String inputPath = _videoModel!.originalCachePath;
 String outputPath = _videoModel!.editCachePath;
 
 FFmpegKit.execute("-i $inputPath -vcodec libx264 -crf 24 -y $outputPath")
 .then((session) async {
 final returnCode = await session.getReturnCode();
 if (ReturnCode.isSuccess(returnCode)) {
 Navigator.pushNamed(context, PreviewPage.routeName,
 arguments: _videoModel);
 } else if (ReturnCode.isCancel(returnCode)) {
 print("compress cancel");
 } else {
 print("compress error : $returnCode");
 FFmpegKitConfig.enableLogCallback((log){
 final message = log.getMessage();
 print(message);
 });
 
 
 }
 });
 }



I am facing the following errors :
Unrecognized option 'crf',
I/flutter (31056) : Error splitting the argument list,
Option not found.


-
How to create video from multiple gallery images store in array flutter ffmpeg
26 janvier 2023, par AmmaraI select images from gallery using multi_image_picker in flutter and store all images in array.


try {
 resultList = await 
 MultiImagePicker.pickImages(
 maxImages: 300,
 enableCamera: true,
 selectedAssets: images,
 materialOptions: MaterialOptions(
 actionBarTitle: "Photo Editor and Video 
 Maker App",
 ),
 );
 }



User can select images from gallery and store in resultlist array.
Now I want to pass this array to ffmpeg to create video from all these images.


I try a lot and search almost all sites but fail. Here is my code.


Future<void> ConvertImageToVideo () async{
const String BASE_PATH = '/storage/emulated/0/Download/';
const String AUDIO_PATH = BASE_PATH + 'audiio.mp3';
const String IMAGE_PATH = BASE_PATH + 'image002.png';
const String OUTPUT_PATH = BASE_PATH + 'output02.mp4';
// final FlutterFFmpeg _flutterFFmpeg = FlutterFFmpeg();
if(await Permission.storage.request().isGranted){
 List<asset> resultlist = <asset>[];
 String commandToExecute =
 '-r 15 -f mp3 -i ${AUDIO_PATH} -f image2 -i ${resultlist} -y ${OUTPUT_PATH}';
 await FFmpegKit.execute(commandToExecute).then((session) async {
 final returnCode = await session.getReturnCode();
 final state = await session.getState();
 if (ReturnCode.isSuccess(returnCode)) {
 print("ruuning "+state.toString());
 print("video created " + returnCode.toString());
 } else if (ReturnCode.isCancel(returnCode)) {
 print("video cancel " + returnCode.toString());
 } else {
 print("error " );
 }
 });
}else if (await Permission.storage.isPermanentlyDenied) {
 openAppSettings();
}
</asset></asset></void>


}