Recherche avancée

Médias (0)

Mot : - Tags -/xmlrpc

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (35)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

  • Encoding and processing into web-friendly formats

    13 avril 2011, par

    MediaSPIP automatically converts uploaded files to internet-compatible formats.
    Video files are encoded in MP4, Ogv and WebM (supported by HTML5) and MP4 (supported by Flash).
    Audio files are encoded in MP3 and Ogg (supported by HTML5) and MP3 (supported by Flash).
    Where possible, text is analyzed in order to retrieve the data needed for search engine detection, and then exported as a series of image files.
    All uploaded files are stored online in their original format, so you can (...)

  • Les formats acceptés

    28 janvier 2010, par

    Les commandes suivantes permettent d’avoir des informations sur les formats et codecs gérés par l’installation local de ffmpeg :
    ffmpeg -codecs ffmpeg -formats
    Les format videos acceptés en entrée
    Cette liste est non exhaustive, elle met en exergue les principaux formats utilisés : h264 : H.264 / AVC / MPEG-4 AVC / MPEG-4 part 10 m4v : raw MPEG-4 video format flv : Flash Video (FLV) / Sorenson Spark / Sorenson H.263 Theora wmv :
    Les formats vidéos de sortie possibles
    Dans un premier temps on (...)

Sur d’autres sites (6890)

  • i can not upload video in background with delayed_job on heroku ?

    23 novembre 2015, par mokariya

    I used paperclip background process with delay jobs with ffmpeg.

    In paperclip processors folder i have ffmpeg.rb file also.

    my model

    class product < ActiveRecord::Base
       has_attached_file :video, :styles => {
       :mp4video => { :geometry => "640x480", :format => 'mp4', :convert_options => {:output => {:ar => 44100}} },
       :webmvideo =>{ :geometry => "1024x576", :format => 'webm', :convert_options => {:output => {:ar => 44100}} },
       :oggvideo => { :geometry => "1024x576", :format => 'ogg', :convert_options => {:output => {:ar => 44100}} },
       :thumb => { :geometry => "100x100#", :format => 'jpg', :time => 10 }
     },
     :storage => :s3,
     :s3_credentials => "#{Rails.root}/config/aws.yml",
     :processors => [:transcoder]

     process_in_background :video

    end
  • Revision f153a5d063 : Make the intra rd search support 8x4/4x8 This commit allows the rate-distortion

    21 mai 2013, par Jingning Han

    Changed Paths :
     Modify /vp9/common/vp9_entropymode.c


     Modify /vp9/common/vp9_findnearmv.h


     Modify /vp9/decoder/vp9_decodemv.c


     Modify /vp9/encoder/vp9_bitstream.c


     Modify /vp9/encoder/vp9_encodeframe.c


     Modify /vp9/encoder/vp9_modecosts.c


     Modify /vp9/encoder/vp9_rdopt.c



    Make the intra rd search support 8x4/4x8

    This commit allows the rate-distortion optimization of intra coding
    capable of supporting 8x4 and 4x8 partition settings.

    It enables the entropy coding of intra modes in key frame using a
    unified contextual probability model conditioned on its above/left
    prediction modes.

    Coding performance :
    derf 0.464%

    Change-Id : Ieed055084e11fcb64d5d5faeb0e706d30268ba18

  • Is a any way of piping input to deepspeech under Linux ?

    24 octobre 2019, par Unreal Admin

    I am trying to continually stream audio from my IP camera to a server running deepspeech to decode the audio stream to text in realtime using FFMPEG.

    I am using the following command :

    $ffmpeg -i rtsp ://192.168.1.249:8080/h264_pcm.sdp -ar 16000 -ac 1 -acodec pcm_s16le -vn -f wav - |
    deepspeech —model deepspeech-0.5.1-models/output_graph.pbmm —alphabet deepspeech-0.5.1-models/alphabet.txt —lm deepspeech-0.5.1-models/lm.binary —trie deepspeech-0.5.1-models/trie —audio -

    Deepspeech : FileNotFoundError : [Errno 2] No such file or directory : ’-’

    deepspeech doesn’t like the ’—audio -’ specifier.

    Is there any way of achieving the above goal using this approach ? Perhaps deepspeech just isn’t designed to do this ?

    Are there any other suggestions as to how this might be achieved ?

    ffmpeg can be directed to write a .wav file. Deepspeech and transcode this file. But I wish to continually stream and transcode the audio.