Recherche avancée

Médias (91)

Autres articles (77)

  • Participer à sa traduction

    10 avril 2011

    Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
    Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
    Actuellement MediaSPIP n’est disponible qu’en français et (...)

  • Websites made ​​with MediaSPIP

    2 mai 2011, par

    This page lists some websites based on MediaSPIP.

  • Possibilité de déploiement en ferme

    12 avril 2011, par

    MediaSPIP peut être installé comme une ferme, avec un seul "noyau" hébergé sur un serveur dédié et utilisé par une multitude de sites différents.
    Cela permet, par exemple : de pouvoir partager les frais de mise en œuvre entre plusieurs projets / individus ; de pouvoir déployer rapidement une multitude de sites uniques ; d’éviter d’avoir à mettre l’ensemble des créations dans un fourre-tout numérique comme c’est le cas pour les grandes plate-formes tout public disséminées sur le (...)

Sur d’autres sites (10682)

  • FFMPEG with Gradle Experimental Android plugin

    12 avril 2016, par Spartan

    I extracted ffmpeg in ndk’s source folder then compiled it there only for that I followed this :http://www.roman10.net/2013/08/18/how-to-build-ffmpeg-with-ndk-r9/

    So I successfully(generated android folder with arm/lib and arm/include files).

    After that I created one Android.mk file in $NDK/sources/ffmpeg/android/arm and one Android.mk in my android project(src/main/jni folder).

    My src/main/jni/Android.mk is like this :

    LOCAL_PATH := $(call my-dir)

    include $(CLEAR_VARS)

    LOCAL_MODULE    := tutorial01
    LOCAL_SRC_FILES := tutorial01.c
    LOCAL_LDLIBS := -llog -ljnigraphics -lz
    LOCAL_SHARED_LIBRARIES := libavformat libavcodec libswscale libavutil

    include $(BUILD_SHARED_LIBRARY)
    $(call import-module,ffmpeg-3.0.1/android/arm)

    Now I stuck here and trying to put these details in build.gradle files like showing in this documentation :
    http://tools.android.com/tech-docs/new-build-system/gradle-experimental

    for example :

    model {

       repositories {

           libs(PrebuiltLibraries) {

               prebuilt {

                   headers.srcDir "path/to/headers"

                   binaries.withType(SharedLibraryBinary) {

                       sharedLibraryFile = file("lib/${targetPlatform.getName()}/prebuilt.so")

                   }

               }

           }

       }

       android.sources {
           main {
               jniLibs {
                   dependencies {
                       library "prebuilt"
                   }
               }
           }
       }
    }

    But not able transform exact Android.mk(src/main/jni) to this and apart from it I have one more Android.mk in my android/arm folder so how I can call this makefile or should I put that details also in my build.gradle like above.

    I tried like this and using ndk-build command successfully generated jniLibs with .so files but I am getting libavcodec/avcodec.h : No such file or directory while building project.

    android.sources {
       main {
           jni {
               source {
                   srcDirs = ['src/main/myJni']
               }

           }

       }

       main {
           jniLibs {
               source {
                   srcDirs = ['src/main/libs']
               }
           }
       }

    }
  • Load processed video instead of original video - Rails, Dragonfly

    1er février 2016, par Michael B

    In my Rails 4-Project, I am using Dragonfly to upload images and videos.
    For image-processing I use imagemagick, for videoprocessing I use ffmpeg.

    Videos are uploaded and stored in the folder uploads/videos. After processing, they are stored in public/ffmpeg_videos/

    My question is : How can I use the processed-video instead of the uploaded video ?

    e.g. I use this code in the view, to display a video :

    <video src="&lt;%=@video.video.url%>"></video>

    This successfully loads the original video from the upload-path. But what do I have to change, to load the video from the ffmpeg-path ?

    initializers/dragonfly.rb

    require 'dragonfly'

    # Configure
    Dragonfly.app(:images).configure do
     plugin :imagemagick
     protect_from_dos_attacks false
     secret 'd045734b043b4383a246c5c8daf2d3e31217dc8b030f21861e4fd16c4b72d382'
     url_format '/media/:job/:name'

     datastore :file,
               root_path: Rails.root.join('uploads/images/'),
               server_root: Rails.root.join('uploads')
    end

    Dragonfly.app(:videos).configure do
     secret 'd045734b043b4383a246c5c8daf2d3e31217dc8b030f21861e4fd16c4b72d382'
     url_format "/video/:job/:name"

     datastore :file,
               root_path: Rails.root.join('uploads/videos/'),
               server_root: Rails.root.join('uploads')
    end

    # Logger
    Dragonfly.logger = Rails.logger

    # Mount as middleware
    Rails.application.middleware.use Dragonfly::Middleware, :images
    Rails.application.middleware.use Dragonfly::Middleware, :videos

    # Add model functionality
    if defined?(ActiveRecord::Base)
     ActiveRecord::Base.extend Dragonfly::Model
     ActiveRecord::Base.extend Dragonfly::Model::Validations
    end
  • iPhone video conversion to Android supported format using FFMPEG

    21 janvier 2016, par Muhammad Umar

    I have an iPhone video created as follow

    Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'vid.mp4':
     Metadata:
       major_brand     : qt  
       minor_version   : 0
       compatible_brands: qt  
       creation_time   : 2016-01-20 09:21:08
       make            : Apple
       make-eng        : Apple
       encoder         : 8.2
       encoder-eng     : 8.2
       date            : 2016-01-20T14:20:57+0500
       date-eng        : 2016-01-20T14:20:57+0500
       model           : iPhone 5
       model-eng       : iPhone 5
     Duration: 00:00:10.80, start: 0.000000, bitrate: 765 kb/s
       Stream #0:0(und): Audio: aac (LC) (mp4a / 0x6134706D), 44100 Hz, mono, fltp, 62 kb/s (default)
       Metadata:
         creation_time   : 2016-01-20 09:21:08
         handler_name    : Core Media Data Handler
       Stream #0:1(und): Video: h264 (Main) (avc1 / 0x31637661), yuv420p(tv, bt709), 320x320, 696 kb/s, 30 fps, 30 tbr, 600 tbn, 1200 tbc (default)
       Metadata:
         creation_time   : 2016-01-20 09:21:08
         handler_name    : Core Media Data Handler
         encoder         : H.264

    I want to convert it into Android support format so that all iPhone and maximum androids can read it.

    However if i convert to mpeg4 format using

    ffmpeg -i vid.mp4 -s 320x320 -vcodec mpeg4 -acodec aac -strict -2 -ac 2 -ar 44100 -ab 128k output.mp4

    it really degrades the quality

    How can i set the ffmpeg to create atleast as close as possible quality which runs on both android and iPhone