Recherche avancée

Médias (1)

Mot : - Tags -/musée

Autres articles (82)

  • Formulaire personnalisable

    21 juin 2013, par

    Cette page présente les champs disponibles dans le formulaire de publication d’un média et il indique les différents champs qu’on peut ajouter. Formulaire de création d’un Media
    Dans le cas d’un document de type média, les champs proposés par défaut sont : Texte Activer/Désactiver le forum ( on peut désactiver l’invite au commentaire pour chaque article ) Licence Ajout/suppression d’auteurs Tags
    On peut modifier ce formulaire dans la partie :
    Administration > Configuration des masques de formulaire. (...)

  • Amélioration de la version de base

    13 septembre 2013

    Jolie sélection multiple
    Le plugin Chosen permet d’améliorer l’ergonomie des champs de sélection multiple. Voir les deux images suivantes pour comparer.
    Il suffit pour cela d’activer le plugin Chosen (Configuration générale du site > Gestion des plugins), puis de configurer le plugin (Les squelettes > Chosen) en activant l’utilisation de Chosen dans le site public et en spécifiant les éléments de formulaires à améliorer, par exemple select[multiple] pour les listes à sélection multiple (...)

  • Qu’est ce qu’un masque de formulaire

    13 juin 2013, par

    Un masque de formulaire consiste en la personnalisation du formulaire de mise en ligne des médias, rubriques, actualités, éditoriaux et liens vers des sites.
    Chaque formulaire de publication d’objet peut donc être personnalisé.
    Pour accéder à la personnalisation des champs de formulaires, il est nécessaire d’aller dans l’administration de votre MediaSPIP puis de sélectionner "Configuration des masques de formulaires".
    Sélectionnez ensuite le formulaire à modifier en cliquant sur sont type d’objet. (...)

Sur d’autres sites (12353)

  • Android NDK - ffmpeg header files not found by compiler

    7 septembre 2015, par markt

    I am trying to use the ffmpeg libraries with Android NDK in the experimental plugin.

    I am attempting to compile this example :
    https://github.com/roman10/android-ffmpeg-tutorial/blob/master/android-ffmpeg-tutorial01/jni/tutorial01.c

    My problem is that the header files are not being found by the compiler :

    Error:(13, 32) libavcodec/avcodec.h: No such file or directory

    I added flags to build.grade :

    cppFlags += "-ilibavcodec -ilibavutil -ilibavformat -ilibswscale"
    ldFlags += "-llibavcodec -llibavutil -llibavformat -llibswscale"

    Which seems to keep lint happy, but not the compiler. (Not sure if I have done this right ?)

    I Have added the header files to the /jni folder :
    Project folder structure

    And build.grade looks like this :

    apply plugin: 'com.android.model.application'
    model {
       android {
           compileSdkVersion = 23
           buildToolsVersion = "23.0.1"

           defaultConfig.with {
               applicationId = "roman10.tutorial.android_ffmpeg_tutorial01"
               minSdkVersion.apiLevel = 10
               targetSdkVersion.apiLevel = 23

           }
       }

       compileOptions.with {
           sourceCompatibility = JavaVersion.VERSION_1_7
           targetCompatibility = JavaVersion.VERSION_1_7
       }

       android.buildTypes {
           release {
               minifyEnabled = false
               proguardFiles += file('proguard-rules.pro')
           }
       }


       android.ndk {
           moduleName = "tutorial01"
           ldLibs += ["android","log","jnigraphics","z"]
           cppFlags += "-ilibavcodec -ilibavutil -ilibavformat -ilibswscale"
           ldFlags += "-llibavcodec -llibavutil -llibavformat -llibswscale"
       }
    }

    dependencies {
       compile fileTree(dir: 'libs', include: ['*.jar'])
       compile 'com.android.support:support-v4:23.0.1'
    }

    Thanks.

  • FFmpeg destroys my Images

    14 septembre 2015, par dazzafact

    Rightnow iam trying to render a Video reading my image Folder with about 83 Images. Iam using this FFMPEG Snip :

    ffmpeg -f image2   -i images/*.jpg  -b 450k -r 30  zoom100.avi  2>&1

    But iam really frustrated, FFMPEG always replace all my Images with the first Image. And The video it also creates me is about 2 Frames long
    Here the FFMPEF Feedback

    ffmpeg version 0.8.17-4:0.8.17-0ubuntu0.12.04.1, Copyright (c) 2000-2014 the Libav developers
     built on Mar 16 2015 13:26:50 with gcc 4.6.3
    The ffmpeg program is only provided for script compatibility and will be removed
    in a future release. It has been deprecated in the Libav project to allow for
    incompatible command line syntax improvements in its replacement called avconv
    (see Changelog for details). Please use avconv instead.
    Input #0, image2, from 'images/0750.jpg':
     Duration: 00:00:00.04, start: 0.000000, bitrate: N/A
       Stream #0.0: Video: mjpeg, yuvj420p, 1280x1280 [PAR 72:72 DAR 1:1], 25 tbr, 25 tbn, 25 tbc
    [buffer @ 0x24a4220] w:1280 h:1280 pixfmt:yuvj420p
    [buffer @ 0x24a4a00] w:1280 h:1280 pixfmt:yuvj420p
    [buffer @ 0x24a52c0] w:1280 h:1280 pixfmt:yuvj420p
    [buffer @ 0x24a5b20] w:1280 h:1280 pixfmt:yuvj420p
    .....
    .....
    .....
    .....
    .....
    .....

    [buffer @ 0x24d4320] w:1280 h:1280 pixfmt:yuvj420p
    Incompatible pixel format 'yuvj420p' for codec 'mpeg4', auto-selecting format 'yuv420p'
    [buffer @ 0x24d03c0] w:1280 h:1280 pixfmt:yuvj420p
    [avsink @ 0x24ceea0] auto-inserting filter 'auto-inserted scaler 0' between the filter 'src' and the filter 'out'
    [scale @ 0x24cc460] w:1280 h:1280 fmt:yuvj420p -> w:1280 h:1280 fmt:yuv420p flags:0x4
    Output #0, image2, to 'images/0751.jpg':
     Metadata:
       encoder         : Lavf53.21.1
       Stream #0.0: Video: mjpeg, yuvj420p, 1280x1280 [PAR 72:72 DAR 1:1], q=2-31, 200 kb/s, 90k tbn, 25 tbc
    Output #1, image2, to 'images/0752.jpg':
     Metadata:
       encoder         : Lavf53.21.1
       Stream #1.0: Video: mjpeg, yuvj420p, 1280x1280 [PAR 72:72 DAR 1:1], q=2-31, 200 kb/s, 90k tbn, 25 tbc
    Output #2, image2, to 'images/0753.jpg':
     Metadata:
       encoder         : Lavf53.21.1
       Stream #2.0: Video: mjpeg, yuvj420p, 1280x1280 [PAR 72:72 DAR 1:1], q=2-31, 200 kb/s, 90k tbn, 25 tbc
       ....
       ....
       ....
       ....
    Output #82, image2, to 'images/0833.jpg':
     Metadata:
       encoder         : Lavf53.21.1
       Stream #82.0: Video: mjpeg, yuvj420p, 1280x1280 [PAR 72:72 DAR 1:1], q=2-31, 200 kb/s, 90k tbn, 25 tbc
    Output #83, avi, to 'zoom100.avi':
     Metadata:
       ISFT            : Lavf53.21.1
       Stream #83.0: Video: mpeg4, yuv420p, 1280x1280 [PAR 1:1 DAR 1:1], q=2-31, 450 kb/s, 30 tbn, 30 tbc
    Stream mapping:
     Stream #0.0 -> #0.0
     Stream #0.0 -> #1.0
     Stream #0.0 -> #2.0
     Stream #0.0 -> #3.0
     Stream #0.0 -> #4.0
       ....
       ....

     Stream #0.0 -> #80.0
     Stream #0.0 -> #81.0
     Stream #0.0 -> #82.0
     Stream #0.0 -> #83.0
    Press ctrl-c to stop encoding
    frame=    1 fps=  0 q=7.0 Lq=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=7.0 q=6.5 size=      -0kB time=0.03 bitrate=  -5.3kbits/s    
    video:16698kB audio:0kB global headers:0kB muxing overhead -100.000129%
  • Latency issue with CMU Sphinx 4

    22 septembre 2015, par vijaym

    I have written the speech recognition application using CMU sphinx 4 and followed the details from this link. I have defined the Acoustic,Dictionary and Language Model as below

    configuration.setAcousticModelPath("resource:/edu/cmu/sphinx/models/en-us/en-us");

    configuration.setDictionaryPath("resource:/edu/cmu/sphinx/models/en-us/cmudict-en-us.dict");

    configuration.setLanguageModelPath("resource:/edu/cmu/sphinx/models/en-us/en-us.lm.bin");

    With the above configuration the 20 minutes of wav file takes almost close to 20 minutes to do the transcription.Hence than I tried to pass the user defined config.xml. I did n’t find the configuration manager option to pass the user defined config.xml with the current version of Sphinx4.Then I had written own recognizer by extending the AbstractSpeechRecognizer.java class(It may be useless) and changed few parameters of config.xml and I tried it but still no improvement.

    I have downloaded video and audio across multiple source and converted into WAV file using FFMPEG

    The command is as below

    ffmpeg -i input.mp3 -acodec pcm_s16le -ac 1 -ar 16000 output.wav

    Environment Details :

    Java 8

    Ubuntu 14.04

    RAM 4GB

    I5 Processor

    What I would like to know is, what I am missing here and how to improve the performance ?