Recherche avancée

Médias (1)

Mot : - Tags -/bug

Autres articles (52)

  • La sauvegarde automatique de canaux SPIP

    1er avril 2010, par

    Dans le cadre de la mise en place d’une plateforme ouverte, il est important pour les hébergeurs de pouvoir disposer de sauvegardes assez régulières pour parer à tout problème éventuel.
    Pour réaliser cette tâche on se base sur deux plugins SPIP : Saveauto qui permet une sauvegarde régulière de la base de donnée sous la forme d’un dump mysql (utilisable dans phpmyadmin) mes_fichiers_2 qui permet de réaliser une archive au format zip des données importantes du site (les documents, les éléments (...)

  • Des sites réalisés avec MediaSPIP

    2 mai 2011, par

    Cette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
    Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page.

  • Les statuts des instances de mutualisation

    13 mars 2010, par

    Pour des raisons de compatibilité générale du plugin de gestion de mutualisations avec les fonctions originales de SPIP, les statuts des instances sont les mêmes que pour tout autre objets (articles...), seuls leurs noms dans l’interface change quelque peu.
    Les différents statuts possibles sont : prepa (demandé) qui correspond à une instance demandée par un utilisateur. Si le site a déjà été créé par le passé, il est passé en mode désactivé. publie (validé) qui correspond à une instance validée par un (...)

Sur d’autres sites (6681)

  • How to configure FFMPEG to generate position independent code on IOS

    8 juillet 2013, par madadi

    I am developing an app on iOS which makes use of FFMPEG for video decoding. I want to get 'position independent code' of FFMPEG working on my app. --enable-pic option in the FFMPEG configuration generates position independent code only if I set --disable-asm. I concluded this when I ran the otool on my app(otool -hv 'appname'). Below are the details :

    If I set --enable-pic alone, below is the output with otool :

    magic     cputype  cpusubtype  caps  filetype  ncmds  sizeofcmds  flags
    MH_MAGIC  ARM      V7          0x00  EXECUTE   29     3724        NOUNDEFS DYLDLINK TWOLEVEL WEAK_DEFINES BINDS_TO_WEAK

    If I set --enable-pic and --disable-asm below is the output with otool,

    magic     cputype  cpusubtype  caps  filetype  ncmds  sizeofcmds  flags
    MH_MAGIC  ARM      V7          0x00  EXECUTE   51     5520        NOUNDEFS DYLDLINK TWOLEVEL WEAK_DEFINES BINDS_TO_WEAK **PIE**

    Below are my configuration settings for FFMPEG(build-ffmpeg-ios.sh) :

    if [  `uname` =  "Darwin" ]; then
     SEDCMD="sed -i '' "
    else
     SEDCMD="sed -i "
    fi


    make clean
    ./configure \
       --prefix=$PREFIX \
       --enable-version3 \
       --enable-static \
       --disable-shared \
       --disable-doc \
       --disable-ffmpeg \
       --disable-ffplay \
       --disable-ffprobe \
       --disable-ffserver \
       --disable-avdevice \
       --disable-avfilter \
       --disable-postproc \
       --enable-small \
       --cross-prefix="$DEVROOT/usr/bin/" \
       --enable-cross-compile \
       --target-os=darwin \
       --arch=$ARCH \
       --cpu=$CPU \
       --cc="$CC" \
       --as="$AS" \
       --extra-cflags="$CFLAGS" \
       --extra-ldflags="$CFLAGS" \
       --disable-symver \
       --disable-debug \
       --disable-indevs \
       --disable-encoders \
       --disable-bsfs \
       --enable-pic \
       --disable-filters \
       $CONFIGURE_FLAGS || exit 1;
    $SEDCMD 's/HAVE_INLINE_ASM 1/HAVE_INLINE_ASM 0/g' config.h
    make install || exit 1;

    And below is the make file I use(iOS.mk) :

    FFMPEG_LIBS := libavcodec.a libavformat.a libavutil.a libswscale.a

    IOS_ARMV7_FFMPEG_LIB := $(addprefix build/ios/armv7/lib/, $(FFMPEG_LIBS))

    IOS_UNI_FFMPEG_LIB := $(addprefix build/ios/universal/lib/, $(FFMPEG_LIBS))



    IPHONE_SDK_VERSION := "5.0"
    IPHONE_DEPLOY_SDK := "3.2"

    ALL_IOS_LIBS := $(IOS_UNI_FFMPEG_LIB)

    build/ios/universal/lib/%.a : build/ios/armv7/lib/%.a
       mkdir -p build/ios/universal/lib
       lipo -create -output $@ $^



    $(IOS_ARMV7_FFMPEG_LIB):
       export PREFIX="`$(ABSPATH) build/ios/armv7`" && \
       export ARCH="arm" && \
       export CPU="cortex-a8" && \
       export IOS_BASE_SDK="$(IPHONE_SDK_VERSION)" && \
       export IOS_DEPLOY_TGT="$(IPHONE_DEPLOY_SDK)" && \
       export CONFIGURE_FLAGS="--enable-neon" && \
       export PATH="`$(ABSPATH) venders`:$$PATH" && \
       cd venders/ffmpeg && bash ../iphone-compile.sh arm7 ../build-ffmpeg-ios.sh

    Can someone please help me with getting the FFMPEG up and running with both 'pic' and assembly optimization enabled. Without assembly optimizastion, FFMPEG would not be helpful to me as the video decoding is extremely slow.

  • Error with os.system in python script

    25 mai 2015, par Avery Ripoll Crocker

    I am creating a python script that will convert files using ffmpeg and unoconv. However when I run the program, rather than getting a converted file the program simply displays the text :

    sh: 1: unoconv -f: not found

    Here is the script for my program :

       path = raw_input("Please drag and drop the directory in which the file is stored into the terminal:")
       os.chdir(path[1:-2])
       filename = raw_input("Please enter the name of the file you would like to convert, including the file-type. e.g. test.txt, however please do make sure that the file-name does not have any spaces:")
       Fileextension = raw_input("What filetype would you like the program to convert your file to. E.g. .mp3: ")
       body, ext = os.path.splitext("filename")
       os.system("'ffmpeg -i ' + filename + body + Fileextension ")

    Any ideas as to why this happens ?

  • FFmpeg Streaming Video SpringBoot endpoint not show video duration in video players

    7 avril 2024, par lxluxo23

    it turns out that I've been working on a personal project just out of curiosity.
the main function is to stream video by first encoding it through ffmpeg
then playback said video from any other device
call it "plex" very very primitive

    


    although I achieve my goal which is to encode and send the video to the devices that make the request
this video is sent so to speak as a live broadcast.
I can only pause it, no forward or rewind, anyone have any idea what I am doing wrong or if I should take some other approach either in my service or controller ?

    


    I leave fragments of my code

    


    THE CONTROLLER

    


    @RestController&#xA;@RequestMapping("/api")&#xA;@Log4j2&#xA;public class StreamController {&#xA;&#xA;    @Autowired&#xA;    VideoStreamingService videoStreamingService;&#xA;&#xA;    @Autowired&#xA;    VideoService videoService;&#xA;&#xA;&#xA;    @GetMapping("/stream/{videoId}")&#xA;    public ResponseEntity<streamingresponsebody> livestream(@PathVariable Long videoId,@RequestParam(required = false)  String codec) {&#xA;        Video video = videoService.findVideoById(videoId);&#xA;        if (video != null) {&#xA;            Codec codecEnum = Codec.fromString(codec);&#xA;            return ResponseEntity.ok()&#xA;                    .contentType(MediaType.valueOf("video/mp4"))&#xA;                    .body(outputStream -> videoStreamingService.streamVideo(video.getPath(), outputStream,codecEnum));&#xA;        }&#xA;        return ResponseEntity.notFound().build();&#xA;    }&#xA;}&#xA;</streamingresponsebody>

    &#xA;

    THE SERVICE

    &#xA;

    @Service&#xA;public class VideoStreamingService {&#xA;&#xA;    public void streamVideo(String videoPath, OutputStream outputStream, Codec codec) {&#xA;&#xA;        FFmpeg ffmpeg = FFmpeg.atPath()&#xA;                .addArguments("-i", videoPath)&#xA;                .addArguments("-b:v", "5000k")&#xA;                .addArguments("-maxrate", "5000k")&#xA;                .addArguments("-bufsize", "10000k")&#xA;                .addArguments("-c:a", "aac")&#xA;                .addArguments("-b:a", "320k")&#xA;                .addArguments("-movflags", "frag_keyframe&#x2B;empty_moov&#x2B;faststart")&#xA;                .addOutput(PipeOutput.pumpTo(outputStream)&#xA;                        .setFormat("mp4"))&#xA;                .addArgument("-nostdin");&#xA;        if (codec == Codec.AMD) {&#xA;            ffmpeg.addArguments("-profile:v", "high");&#xA;        }&#xA;        ffmpeg.addArguments("-c:v", codec.getFfmpegArgument());&#xA;        ffmpeg.execute();&#xA;    }&#xA;}&#xA;

    &#xA;

    I have some enums to vary the encoding and use hardware acceleration or not.

    &#xA;

    and here is an example from my player&#xA;the endpoint is the following

    &#xA;

    http://localhost:8080/api/stream/2?codec=AMD&#xA;screenshot

    &#xA;

    I'm not sure if there's someone with more knowledge in either FFmpeg or Spring who could help me with this minor issue, I would greatly appreciate it. I've included the URL of the repository in case anyone would like to review it when answering my question

    &#xA;

    repo

    &#xA;

    I tried changing the encoding format.&#xA;I tried copying the metadata from the original video.&#xA;I tried sending a custom header.&#xA;None of this has worked.

    &#xA;

    I would like to achieve what is mentioned in many sites, which is when you load a video from the network, the player shows how much of that video you have in the local "buffer".

    &#xA;