Recherche avancée

Médias (39)

Mot : - Tags -/audio

Autres articles (63)

  • Amélioration de la version de base

    13 septembre 2013

    Jolie sélection multiple
    Le plugin Chosen permet d’améliorer l’ergonomie des champs de sélection multiple. Voir les deux images suivantes pour comparer.
    Il suffit pour cela d’activer le plugin Chosen (Configuration générale du site > Gestion des plugins), puis de configurer le plugin (Les squelettes > Chosen) en activant l’utilisation de Chosen dans le site public et en spécifiant les éléments de formulaires à améliorer, par exemple select[multiple] pour les listes à sélection multiple (...)

  • Emballe médias : à quoi cela sert ?

    4 février 2011, par

    Ce plugin vise à gérer des sites de mise en ligne de documents de tous types.
    Il crée des "médias", à savoir : un "média" est un article au sens SPIP créé automatiquement lors du téléversement d’un document qu’il soit audio, vidéo, image ou textuel ; un seul document ne peut être lié à un article dit "média" ;

  • Menus personnalisés

    14 novembre 2010, par

    MediaSPIP utilise le plugin Menus pour gérer plusieurs menus configurables pour la navigation.
    Cela permet de laisser aux administrateurs de canaux la possibilité de configurer finement ces menus.
    Menus créés à l’initialisation du site
    Par défaut trois menus sont créés automatiquement à l’initialisation du site : Le menu principal ; Identifiant : barrenav ; Ce menu s’insère en général en haut de la page après le bloc d’entête, son identifiant le rend compatible avec les squelettes basés sur Zpip ; (...)

Sur d’autres sites (7131)

  • fluent-ffmpeg concatenate audio files

    8 septembre 2020, par Martin

    I am trying to use fluent-ffmpeg with my electron app to concatenate multiple audio files together with an image in a video. So if i have three files :

    


    song1.mp3 1:00
song2.mp3 0:30
song3.mp3 2:00
front.jpg

    


    I could create output.mp4 which would be 3:30 seconds long, and play each file one after the other in order. With front.jpg set as the background image.

    


    I have succesfully been able to render a single audio file with an image file, but havent been able to render multiple audio files together yet into a video.

    


    Here is my concat attempt :

    


    const command = ffmpeg();
       
            const audioFiles = ['C:\\Users\\marti\\Documents\\martinradio\\uploads\\Movers - 1970 greatest hits vol. 2\\01 back from the moon.mp3', 'C:\\Users\\marti\\Documents\\martinradio\\uploads\\Movers - 1970 greatest hits vol. 2\\02 love me not.mp3'];
            audioFiles.forEach((fileName)=>{
                command.input(fileName);
            })
            command
                    .complexFilter([
                        '[0]adelay=1000|1000[a]',
                        '[1]adelay=4000|4000[b]',
                        '[a][b]amix=2'
                    ])
                    .input(imgPath)
                    .videoCodec('copy')
                    .save('C:\\Users\\marti\\Documents\\martinradio\\uploads\\Movers - 1970 greatest hits vol. 2\\concat-autio.mp4')
                    .on('codecData', function(data) {
                        console.log('codecData=',data);
                    })
                    .on('progress', function({ percent }) {
                        console.log('progress percent: ' + percent);
                    })
                    .on('end', function() {
                        console.log('file has been converted succesfully');
                    })
                    .on('error', function(err) {
                        console.log('an error happened: ' + err.message);
                    })
                    command.run()


    


    When I run it I can see in my console it start, run, and end.

    


    enter image description here

    


    My example uses two audio files :

    


    01 back from the moon.mp3 02:31
02 love me not.mp3' 02:35

    


    So my output file should be 05:06 in length, but my output is only 02:39 in length
enter image description here

    


  • ffmpeg missing blend filter

    17 juin 2020, par user2927954

    I am working on android project using ffmpeg library. I followed instruction from : https://github.com/guardianproject/android-ffmpeg to build ffmpeg library for android. All are OK.

    



    Now, i am testing filters that corresponding to video filter of this library such as : drawtext, scale, pad, ... Most of them worked fine, but i have problem with "blend" filter.

    



    I try with commands : ffmpeg -i input1.mp4 -i input2.mp4 -filter_complex blend=all_expr='if(eq(mod(X,2),mod(Y,2)),A,B)' -y out.mp4 and recieve error : no such blend filter.

    



    Do you know how i configure to enable this filter ?

    



    Here is the output result :

    



    ffmpeg version 0.11.1 Copyright (c) 2000-2012 the FFmpeg developers
  built on Feb 27 2014 05:23:20 with gcc 4.6 20120106 (prerelease)
  configuration: --arch=arm --cpu=cortex-a8 --target-os=linux --enable-runtime-cpudetect --prefix=/data/data/info.guardianproject.ffmpeg/app_opt --enable-pic --disable-shared --enable-static --cross-prefix=/home/admin/workspace/android-ndk-r9c/toolchains/arm-linux-androideabi-4.6/prebuilt/linux-x86/bin/arm-linux-androideabi- --sysroot=/home/admin/workspace/android-ndk-r9c/platforms/android-3/arch-arm --extra-cflags='-I../x264 -mfloat-abi=softfp -mfpu=neon' --extra-ldflags=-L../x264 --enable-version3 --enable-gpl --disable-doc --enable-yasm --enable-decoders --enable-encoders --enable-muxers --enable-demuxers --enable-parsers --enable-protocols --enable-filters --enable-avresample --enable-libfreetype --disable-indevs --enable-indev=lavfi --disable-outdevs --enable-hwaccels --enable-ffmpeg --disable-ffplay --disable-ffprobe --disable-ffserver --disable-network --enable-libx264 --enable-zlib --enable-muxer=md5
  libavutil      51. 54.100 / 51. 54.100
  libavcodec     54. 23.100 / 54. 23.100
  libavformat    54.  6.100 / 54.  6.100
  libavdevice    54.  0.100 / 54.  0.100
  libavfilter     2. 77.100 /  2. 77.100
  libswscale      2.  1.100 /  2.  1.100
  libswresample   0. 15.100 /  0. 15.100
  libpostproc    52.  0.100 / 52.  0.100
Input #0, mov,mp4,m4a,3gp,3g2,mj2, from '/storage/emulated/0/videokit/in.mp4':
  Metadata:
    major_brand     : isom
    minor_version   : 0
    compatible_brands: isom3gp4
    creation_time   : 2014-03-04 08:53:01
  Duration: 00:00:15.10, start: 0.000000, bitrate: 7055 kb/s
    Stream #0:0(eng): Video: h264 (High) (avc1 / 0x31637661), yuv420p, 1280x720, 6935 kb/s, SAR 65536:65536 DAR 16:9, 17.18 fps, 34.42 tbr, 90k tbn, 180k tbc
    Metadata:
      creation_time   : 2014-03-04 08:53:01
      handler_name    : VideoHandle
    Stream #0:1(eng): Audio: aac (mp4a / 0x6134706D), 16000 Hz, stereo, s16, 128 kb/s
    Metadata:
      creation_time   : 2014-03-04 08:53:01
      handler_name    : SoundHandle
Input #1, mov,mp4,m4a,3gp,3g2,mj2, from '/storage/emulated/0/videokit/7.mp4':
  Metadata:
    major_brand     : isom
    minor_version   : 512
    compatible_brands: isomiso2mp41
    creation_time   : 1970-01-01 00:00:00
    encoder         : Lavf53.12.0
    comment         : Courtesy of National Geographic.  Used by Permission.
  Duration: 00:00:04.20, start: 0.000000, bitrate: 1601 kb/s
    Stream #1:0(und): Video: mpeg4 (Simple Profile) (mp4v / 0x7634706D), yuv420p, 320x240 [SAR 1:1 DAR 4:3], 1472 kb/s, 10 fps, 10 tbr, 10 tbn, 10 tbc
    Metadata:
      creation_time   : 1970-01-01 00:00:00
      handler_name    : VideoHandler
    Stream #1:1(und): Audio: aac (mp4a / 0x6134706D), 48000 Hz, stereo, s16, 128 kb/s
    Metadata:
      creation_time   : 1970-01-01 00:00:00
      handler_name    : SoundHandler
No such filter: 'blend'
Error configuring filters.


    



    Thanks

    


  • How to get progress percentage of flutter ffmpeg execution

    11 août 2021, par Sharik ansari

    I want to get percentage of ffmpeg execution in flutter

    


    I have some code example but I don't know to do this

    


    ANDROID EXAMPLE :

    


    int start = message.indexOf("time=");
    int end = message.indexOf(" bitrate");
    if (start != -1 && end != -1) {
        String duration = message.substring(start + 5, end);
        if (duration != "") {
            try {
                SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss.SSS");
                sdf.setTimeZone(TimeZone.getTimeZone("UTC"));
                dialog.setProgress((int)sdf.parse("1970-01-01 " + duration).getTime());                        
            }catch (ParseException e)
            {
                e.printStackTrace();
            }
        }
}


    


    FLUTTER CODE :

    


      void statisticsCallback(Statistics statistics) {
print("Statistics: executionId: ${statistics.executionId}, time: ${statistics.time}, size: ${statistics.size}, bitrate: ${statistics.bitrate}, speed: ${statistics.speed}, videoFrameNumber: ${statistics.videoFrameNumber}, videoQuality: ${statistics.videoQuality}, videoFps: ${statistics.videoFps}");
  }


    


    how can I generate progress of execution from statisticsCallback method ?

    


    Please help me out