Recherche avancée

Médias (0)

Mot : - Tags -/metadatas

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (72)

  • Des sites réalisés avec MediaSPIP

    2 mai 2011, par

    Cette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
    Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page.

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (8399)

  • Speed Compare audio file library [closed]

    11 avril, par DrGMark7

    I am trying to benchmark some popular python audio libs for audio work in python. I intend to test how the Read/Write of these libs are. I tested with wav files with length 1, 2, 5, 10, 30, 60, 300, 600, 1800 with the following libs : PyTorch Audio, librosa, soundfile, pydub. The speed is shown in the graph below. Can anyone explain me why it is so fast and why pydub is the fastest ? I am also wondering how big software like Meta or Youtube handle such small audio files in large quantities.Saving Inference CompareLoading Inference Compare

    


    I'm trying to understand it if we take away from Python, it's a slow language.

    


    P.S. I understand that Pytorch is slow because of the overhead of converting to Tensor.

    


  • configure : speed up check_deps()

    5 août 2018, par Avi Halachmi (:avih)
    configure : speed up check_deps()
    

    x4 - x25 faster.

    check_deps() recursively enables/disables components, and its loop is
    iterated nearly 6000 times. It's particularly slow in bash - currently
    consuming more than 50% of configure runtime, and about 20% with other
    shells.

    This commit applies few local optimizations, most effective first :
    - Use $1 $2 ... instead of pushvar/popvar, and same at enable_deep*
    - Abort early in one notable case - empty deps, to avoid costly no-op.
    - Smaller changes which do add up :
    - Handle $cfg_checking locally instead of via enable[d]/disable
    - $cfg_checking : test done before inprogress - x2 faster in 50%+
    - one eval instead of several at the empty-deps early abort path.

    - The "actual work" part is unmodified - just its surroundings.

    Biggest speedups (relative and absolute) are observed with bash.

    Tested-by : Michael Niedermayer <michael@niedermayer.cc>
    Tested-by : Helmut K. C. Tessarek <tessarek@evermeet.cx>
    Tested-by : Dave Yeo <daveryeo@telus.net>
    Tested-by : Reino Wijnsma <rwijnsma@xs4all.nl>
    Signed-off-by : James Almer <jamrial@gmail.com>

    • [DH] configure
  • Revision 6c6213d960 : Merge "Pruned subpel search for speed 3."

    24 septembre 2014, par Deb Mukherjee

    Changed Paths :
     Modify /vp9/encoder/vp9_speed_features.c



    Merge "Pruned subpel search for speed 3."