Recherche avancée

Médias (0)

Mot : - Tags -/flash

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (50)

  • Diogene : création de masques spécifiques de formulaires d’édition de contenus

    26 octobre 2010, par

    Diogene est un des plugins ? SPIP activé par défaut (extension) lors de l’initialisation de MediaSPIP.
    A quoi sert ce plugin
    Création de masques de formulaires
    Le plugin Diogène permet de créer des masques de formulaires spécifiques par secteur sur les trois objets spécifiques SPIP que sont : les articles ; les rubriques ; les sites
    Il permet ainsi de définir en fonction d’un secteur particulier, un masque de formulaire par objet, ajoutant ou enlevant ainsi des champs afin de rendre le formulaire (...)

  • MediaSPIP version 0.1 Beta

    16 avril 2011, par

    MediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Utilisation et configuration du script

    19 janvier 2011, par

    Informations spécifiques à la distribution Debian
    Si vous utilisez cette distribution, vous devrez activer les dépôts "debian-multimedia" comme expliqué ici :
    Depuis la version 0.3.1 du script, le dépôt peut être automatiquement activé à la suite d’une question.
    Récupération du script
    Le script d’installation peut être récupéré de deux manières différentes.
    Via svn en utilisant la commande pour récupérer le code source à jour :
    svn co (...)

Sur d’autres sites (2680)

  • Gujarati text properly not show on output video using FFmpeg Library in Android

    15 mars 2024, par sanjay dangar

    Gujarati text overly on video using FFmpeg Library on Android

    


    below my code in Gujarati text twin word proper does not show

    


    I am Enter this text ="વડાપ્રધાનશ્રી નરેન્દ્રભાઇ મોદી." but output video in proper not show

    


     fun addFrame2VideoEditFun(&#xA;        videoPath: String,&#xA;        fontPath: String,&#xA;        outputPath: String&#xA;    ): Array<string> {&#xA;        val inputs: ArrayList<string> = ArrayList()&#xA;     var textFile = "વડાપ્રધાનશ્રી નરેન્દ્રભાઇ મોદી."&#xA;        inputs.apply {&#xA;            add("-i")&#xA;            add(videoPath)&#xA;            add("-vf")&#xA;            add("drawtext=fontfile=$fontPath:text=$textFile:fontsize=24:fontcolor=white:x=(w-text_w)/2:y=h-line_h")&#xA;            add("-c:a")&#xA;            add("copy")&#xA;            add(outputPath)&#xA;        }&#xA;        return inputs.toArray(arrayOfNulls(inputs.size))&#xA;    }&#xA;</string></string>

    &#xA;

    my output video in below text show

    &#xA;

    my output video in show this text

    &#xA;

    Gujarati text properly does not show on output video using FFmpeg Library.

    &#xA;

  • Splitting audio tracks with incorrect length - FFMPEG

    26 mars 2018, par channae

    Version : com.writingminds:FFmpegAndroid:0.3.2

    I have an audio file with length 43 seconds. And I wrote an algorithm to split at each 10 seconds mark where a word ends (For this I used IBM Watson to get ending timestamp). So cropping duration is always around 10 seconds to 11 seconds. Of course except the 5th one. I have printed my commands so that you will understand my use-case better.

    System.out: Split Command: -y -i /storage/emulated/0/AudioClipsForSpeakerRecognition/merge.wav -ss 00:00:00.000 -codec copy -t 00:00:10.010 /storage/emulated/0/AudioClipsForSpeakerRecognition/segment_1.wav

    System.out: Split Command: -y -i /storage/emulated/0/AudioClipsForSpeakerRecognition/merge.wav -ss 00:00:10.010 -codec copy -t 00:00:21.090 /storage/emulated/0/AudioClipsForSpeakerRecognition/segment_2.wav

    System.out: Split Command: -y -i /storage/emulated/0/AudioClipsForSpeakerRecognition/merge.wav -ss 00:00:21.090 -codec copy -t 00:00:30.480 /storage/emulated/0/AudioClipsForSpeakerRecognition/segment_3.wav

    System.out: Split Command: -y -i /storage/emulated/0/AudioClipsForSpeakerRecognition/merge.wav -ss 00:00:30.480 -codec copy -t 00:00:40.120 /storage/emulated/0/AudioClipsForSpeakerRecognition/segment_4.wav

    System.out: Split Command: -y -i /storage/emulated/0/AudioClipsForSpeakerRecognition/merge.wav -ss 00:00:40.120 -codec copy -t 00:00:43.000 /storage/emulated/0/AudioClipsForSpeakerRecognition/segment_5.wav

    However when playing all cropped audio files I noticed segment_1 is about 10 seconds and segment_2 is about 20 seconds etc. Therefore some of the audio parts belong to segment_1 also available in segment 2 etc etc. Why is this happening ?

    Appreciate your response.

  • Is there an efficient way to use ffmpeg to perform a large quantity of cuts from a single file ?

    16 mars 2024, par Giuliano Oliveri

    I'm trying to cut video files into smaller chunks. (each one being one word said in the video, so they're not all of equal size)

    &#xA;

    I've tried a lot of different approaches to try to be as efficient as possible, but I can't get the runtime to be under 2/3rd of the original video length. That's an issue because I'm trying to process 400+ hours of video.

    &#xA;

    Is there a more efficient way to do this ? Or am I doomed to run this for weeks ?

    &#xA;

    Here is the command for my best attempt so far

    &#xA;

    ffmpeg -hwaccel cuda -hwaccel_output_format cuda -ss start_timestamp -t to_timestamp -i file_name -vf "fps=30,scale_cuda=1280:720" -c:v h264_nvenc -y output_file&#xA;

    &#xA;

    Note that the machine running the code has a 4090&#xA;This command is then executed via python, which gives it the right timestamps and file paths for each smaller clip in a for loop

    &#xA;

    I think it's wasting a lot of time calling a new process each time, however I haven't been able to get better results with a split filter ; but here's the ffmpeg-python code for that attempt :

    &#xA;

    Creation of the stream :

    &#xA;

    inp = (&#xA;    ffmpeg&#xA;    .input(file_name, hwaccel="cuda", hwaccel_output_format="cuda")&#xA;    .filter("fps",fps=30)&#xA;    .filter(&#x27;scale_cuda&#x27;, &#x27;1280&#x27;,&#x27;720&#x27;)&#xA;    .filter_multi_output(&#x27;split&#x27;)&#xA;)&#xA;

    &#xA;

    Which then gets called in a for loop

    &#xA;

    (&#xA;    ffmpeg&#xA;    .filter(inp, &#x27;trim&#x27;, start=row[1][&#x27;start&#x27;], end=row[1][&#x27;end&#x27;])&#xA;    .filter(&#x27;setpts&#x27;, &#x27;PTS-STARTPTS&#x27;)&#xA;    .output(output_file,vcodec=&#x27;h264_nvenc&#x27;)&#xA;    .run()&#xA;)&#xA;

    &#xA;