Recherche avancée

Médias (0)

Mot : - Tags -/xmlrpc

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (94)

  • Script d’installation automatique de MediaSPIP

    25 avril 2011, par

    Afin de palier aux difficultés d’installation dues principalement aux dépendances logicielles coté serveur, un script d’installation "tout en un" en bash a été créé afin de faciliter cette étape sur un serveur doté d’une distribution Linux compatible.
    Vous devez bénéficier d’un accès SSH à votre serveur et d’un compte "root" afin de l’utiliser, ce qui permettra d’installer les dépendances. Contactez votre hébergeur si vous ne disposez pas de cela.
    La documentation de l’utilisation du script d’installation (...)

  • Websites made ​​with MediaSPIP

    2 mai 2011, par

    This page lists some websites based on MediaSPIP.

  • Possibilité de déploiement en ferme

    12 avril 2011, par

    MediaSPIP peut être installé comme une ferme, avec un seul "noyau" hébergé sur un serveur dédié et utilisé par une multitude de sites différents.
    Cela permet, par exemple : de pouvoir partager les frais de mise en œuvre entre plusieurs projets / individus ; de pouvoir déployer rapidement une multitude de sites uniques ; d’éviter d’avoir à mettre l’ensemble des créations dans un fourre-tout numérique comme c’est le cas pour les grandes plate-formes tout public disséminées sur le (...)

Sur d’autres sites (9923)

  • sws : Replace call to yuv2yuvX_mmx by yuv2yuvX_mmxext

    17 août 2022, par Alan Kelly
    sws : Replace call to yuv2yuvX_mmx by yuv2yuvX_mmxext
    

    Signed-off-by : Andreas Rheinhardt <andreas.rheinhardt@outlook.com>

    • [DH] libswscale/x86/swscale.c
  • Split a video file into separate video and audio files using a single ffmpeg call ?

    25 novembre 2015, par sdaau

    Background : I would like to use MLT melt to render a project, but I’d like that render to result with separate audio and video files. I’d intend to use melt’s "consumer" avformat which uses ffmpeg’s libraries, so I’m formulating this question as for ffmpeg.

    According to Useful FFmpeg Commands For Converting Audio & Video Files (labnol.org), the following is possible :

    ffmpeg -i video.mp4 -t 00:00:50 -c copy small-1.mp4 -ss 00:00:50 -codec copy small-2.mp4

    ... which slices the "merged" audio+video files into two separate "chunk" files, which are also audio+video files, in a single call ; that’s not what I need.

    Then, ffmpeg Documentation (ffmpeg.org), mentions this :

    ffmpeg -i INPUT -map_channel 0.0.0 OUTPUT_CH0 -map_channel 0.0.1 OUTPUT_CH1

    ... which splits the entire duration of the content of two channels of a stereo audio file, into two mono files ; that’s more like what I need, except I want to split an A+V file into a stereo audio file, and a video file.

    So I tried this with elephantsdream_teaser.ogv :

    ffmpeg -i /tmp/elephantsdream_teaser.ogv \
     -map 0.0 -vcodec copy ele.ogv -map 0.1 -acodec copy ele.ogg

    ... but this fails with "Number of stream maps must match number of output streams" (even if zero-size ele.ogv and ele.ogg are created).

    So my question is - is something like this possible with ffmpeg, and if it is, how can I do it ?

  • Android FFMpeg not able to call function defined in RTSP.h

    29 janvier 2015, par Crossader

    I’ve compiled FFMpeg successfully with the following configuration :

    sh ./configure \
    --prefix=$NDK/sources/ffmpeg/android/arm \
    --enable-gpl \
    --enable-libx264 \
    --enable-encoder=libx264 \
    --sysroot=$NDK/sources/ffmpeg/android/arm \
    --cross-prefix=$NDK/toolchains/arm-linux-androideabi-4.9/prebuilt/darwin-x86_64/bin/arm-linux-androideabi- \
    --target-os=linux \
    --arch=arm \
    --enable-cross-compile \
    --disable-shared \
    --enable-static \
    --disable-doc \
    --disable-ffmpeg \
    --disable-ffplay \
    --disable-ffprobe \
    --disable-ffserver \
    --disable-avdevice \
    --disable-doc \
    --disable-symver \
    --enable-small \
    --enable-network \
    --enable-protocol=tcp \
    --enable-protocol=udp \
    --enable-protocol=rtp \
    --enable-encoder=mpeg4 \
    --enable-muxer=rtsp \
    --enable-muxer=rtp \
    --enable-memalign-hack \
    --extra-ldflags='-L$NDK/sources/ffmpeg/android/arm/lib' \
    --extra-cflags='-Os -fpic -marm -fPIC -DANDROID -Wfatal-errors -Wno-deprecated -I$NDK/sources/ffmpeg/android/arm/include'

    Afterwards the header files RTSP.h and RTP.h weren’t created in the include folder of the compiled output. So I tried to copy the files from FFMpeg directory to this folder. But of course, when I tried to call a function I get a "reference not found" error.
    Do you have an idea how I can call functions defined in those headers ?

    Thank you for your effort.