Recherche avancée

Médias (10)

Mot : - Tags -/wav

Autres articles (34)

  • Gestion des droits de création et d’édition des objets

    8 février 2011, par

    Par défaut, beaucoup de fonctionnalités sont limitées aux administrateurs mais restent configurables indépendamment pour modifier leur statut minimal d’utilisation notamment : la rédaction de contenus sur le site modifiables dans la gestion des templates de formulaires ; l’ajout de notes aux articles ; l’ajout de légendes et d’annotations sur les images ;

  • Diogene : création de masques spécifiques de formulaires d’édition de contenus

    26 octobre 2010, par

    Diogene est un des plugins ? SPIP activé par défaut (extension) lors de l’initialisation de MediaSPIP.
    A quoi sert ce plugin
    Création de masques de formulaires
    Le plugin Diogène permet de créer des masques de formulaires spécifiques par secteur sur les trois objets spécifiques SPIP que sont : les articles ; les rubriques ; les sites
    Il permet ainsi de définir en fonction d’un secteur particulier, un masque de formulaire par objet, ajoutant ou enlevant ainsi des champs afin de rendre le formulaire (...)

  • Problèmes fréquents

    10 mars 2010, par

    PHP et safe_mode activé
    Une des principales sources de problèmes relève de la configuration de PHP et notamment de l’activation du safe_mode
    La solution consiterait à soit désactiver le safe_mode soit placer le script dans un répertoire accessible par apache pour le site

Sur d’autres sites (2629)

  • How can I use ffmpeg inside my wpf application

    6 avril 2022, par Kanoto

    I'm having some issue about using ffmpeg in my wpf project, I dunno why but it seems to not work inside msvc.

    


    ErrorLoadFFmpeg

    


    But it seems to work just fine in cmd.
I'm trying to use it in GoProControl project.
I already added path, $PATH with "C :\FFmpeg" and "C :\FFmpeg\bin" as well.
I have no idea why it doesn't work.

    


    using Newtonsoft.Json.Linq;&#xA;using System;&#xA;using System.Collections.Generic;&#xA;using System.Diagnostics;&#xA;using System.Linq;&#xA;using System.Net;&#xA;using System.Net.Sockets;&#xA;using System.Text;&#xA;using System.Threading.Tasks;&#xA;using System.Windows;&#xA;using System.Windows.Controls;&#xA;using System.Windows.Data;&#xA;using System.Windows.Documents;&#xA;using System.Windows.Input;&#xA;using System.Windows.Media;&#xA;using System.Windows.Media.Imaging;&#xA;using System.Windows.Navigation;&#xA;using System.Windows.Shapes;&#xA;&#xA;namespace GoProControl&#xA;{&#xA;    /// <summary>&#xA;    /// Logique d&#x27;interaction pour MainWindow.xaml&#xA;    /// </summary>&#xA;    public partial class GoProWindowsControl : Window&#xA;    {&#xA;        bool VERBOSE = false;&#xA;&#xA;        //Sends Record command to GoPro Camera, must be in Video mode!&#xA;        bool RECORD = true;&#xA;&#xA;        //Converts GoPro camera live stream via FFMPEG to a local source, must be in Video mode!&#xA;        bool STREAM = false;&#xA;&#xA;        //Saves the feed to a custom location&#xA;        bool SAVE = false;&#xA;&#xA;        private bool m_status;&#xA;&#xA;        WebClient myWebClient;&#xA;&#xA;&#xA;        public GoProWindowsControl()&#xA;        {&#xA;            myWebClient = new WebClient();&#xA;            m_status = false;&#xA;            InitializeComponent();&#xA;&#xA;            InitializeMainWindow();&#xA;&#xA;            InitializeFFME();&#xA;        }&#xA;&#xA;        private void InitializeMainWindow()&#xA;        {&#xA;&#xA;            PreviewKeyDown &#x2B;= OnWindowKeyDown;&#xA;&#xA;        }&#xA;&#xA;        private void InitializeFFME()&#xA;        {&#xA;            Unosquare.FFME.Library.FFmpegDirectory = @"C:\FFmpeg";&#xA;            if (VERBOSE == false)&#xA;                Unosquare.FFME.Library.FFmpegLogLevel = FFmpeg.AutoGen.ffmpeg.AV_LOG_PANIC;&#xA;            else&#xA;                Unosquare.FFME.Library.FFmpegLogLevel = FFmpeg.AutoGen.ffmpeg.AV_LOG_ERROR;&#xA;            Unosquare.FFME.Library.FFmpegLoadModeFlags = FFmpeg.AutoGen.FFmpegLoadMode.VideoOnly;&#xA;&#xA;            Unosquare.FFME.Library.LoadFFmpeg();&#xA;        }&#xA;

    &#xA;

  • FFMPEG video editing application. Need time and date stamp burned into video

    11 mai 2022, par Jacob

    I am developing an application for video editing. The main component of this application is to produce a single video file from several video files captured from a camcorder with the time and date stamp displayed on the final rendered video, much like the final product from a security camera. I have figured out, by using FFMPEG, how to burn the date and time into the video with a .SRT file as well as with DrawText like the following :

    &#xA;

    ffmpeg -y -i video.mp4 -vf “drawtext=fontfile=roboto.ttf:fontsize=12:fontcolor=yellow:text=&#x27;%{pts\:localtime\:1575526882\:%A, %d, %B %Y %I\\\:%M\\\:%S %p}&#x27;" -preset ultrafast -f mp4 output_new.mp4    &#xA;

    &#xA;

    I would rather use the DrawText method so the user does not have to wait longer while creating the .SRT files. I am new to FFMPEG and I find their documentation very confusing. I guess I am hoping there is someone out there who has experience with it.

    &#xA;

    Everything seems to work when I pass in the date created meta data from the video file and drawtext just does its thing. The problem is my application allows for editing of the video. I do this, for lack of better solution, by allowing the user to select beginning and ending frames they do not want, from the UI and then the code simply deletes the frames from the directory where they were split and saved. I then use FFMPEG to iterate through the directory and combine the remaining frames to make a video file.

    &#xA;

    This approach starts the time and date from the date created metadata ; however, cutting the frames out of the video will make the DT stamp inaccurate, due to the missing frames.

    &#xA;

    Is there any way to tell FFMPEG to burn in the date and time from date/time retrieved from each individual frame ? I appreciate any advice that you may have.

    &#xA;

  • How can one pipe the audio waveform image out of ffmpeg into an image display command/application ? [closed]

    15 mai 2022, par esp

    These two commands, when used in succession, produce a .png file of the inputted audio waveform.

    &#xA;

    ffmpeg -i audioFile.mp3 -filter_complex "showwavespic=s=640x120" -frames:v 1 imageFile.png&#xA;qlmanage -p imageFile.png&#xA;

    &#xA;

    But I have not succeeded in piping the image from the first to the second. Simply using "|" between them did not work.

    &#xA;

    ffmpeg -i audioFile.mp3 -filter_complex "showwavespic=s=640x120" -frames:v 1 |&#xA;qlmanage -p&#xA;

    &#xA;

    Error :

    &#xA;

    Filter showwavespic has an unconnected output&#xA;

    &#xA;

    Sounds pretty fundamental !

    &#xA;

    Please, how can what I am trying to do be achieved ?

    &#xA;