Recherche avancée

Médias (91)

Autres articles (75)

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 est la première version de MediaSPIP stable.
    Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Mise à disposition des fichiers

    14 avril 2011, par

    Par défaut, lors de son initialisation, MediaSPIP ne permet pas aux visiteurs de télécharger les fichiers qu’ils soient originaux ou le résultat de leur transformation ou encodage. Il permet uniquement de les visualiser.
    Cependant, il est possible et facile d’autoriser les visiteurs à avoir accès à ces documents et ce sous différentes formes.
    Tout cela se passe dans la page de configuration du squelette. Il vous faut aller dans l’espace d’administration du canal, et choisir dans la navigation (...)

  • MediaSPIP version 0.1 Beta

    16 avril 2011, par

    MediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

Sur d’autres sites (8761)

  • Error using javacv library for live streaming camera to server

    22 juin 2015, par Prathyush Kumar

    I am new to live-streaming i’m following this link
    here for implementing camera streaming to server with ffserver listening on port 8090.But my code breaks at this line

    public void startRecording() {
       try {
           recorder.start();    //breaks here
           startTime = System.currentTimeMillis();
           recording = true;
           audioThread.start();
       } catch (FFmpegFrameRecorder.Exception e) {
           e.printStackTrace();
       }
    }

    I debugged a little bit to find out what is happening and i found out in this line in FFmpegFrameRecorder.class

    if((this.oformat.flags() & 1) == 0) {
       AVIOContext pb1 = new AVIOContext((Pointer)null);
       if((ret = avformat.avio_open(pb1, this.filename, 2)) < 0) {//throwing exception here
           this.release();
           throw new Exception("avio_open error() error " + ret + ": Could not open \'" + this.filename + "\'");
       }

       this.oc.pb(pb1);
    }

    ret is -5 which is less than 0 and so it cannot open the file(rtmp ://live:live@192.168.0.115:8090/live/test.flv).

    I am not able to understand whats happening in avformat.class Please help

    Is this any configuration problem for ffserver or is it anything else ?I’m not able to figure this out please any help would be greatly appreciated.

  • (IOS) Streaming raw h.264 video from and iphone to a RTSP

    10 octobre 2015, par Eric Jovenitti

    Ok so i’m new to video encoding and decoding and RTSP, but I need to take a third party component video stream i.e. (A quad copter drone) and output that stream to a RTSP. The stream is in raw h.264. The stream comes from the drones sdk i.e.,

    -(void) camera:(DJICamera*)camera didReceivedVideoData:(uint8_t*)videoBuffer length:(int)length{
    uint8_t* pBuffer = (uint8_t*)malloc(length);
    memcpy(pBuffer, videoBuffer, length);
    [[[VideoPreviewer instance] dataQueue] push:pBuffer length:length];

    }

    As you can see the raw video comes in from camera in the uint8_t.
    To my understanding this a decoded raw h.264 stream with Nalu’s an a IDR frame.

    So I want to stream this video to a RTSP so it can be watch on VLC .

    Does anyone know of tutorials or demo code to stream this video via a RTSP ?

    Additionally I found this demo : http://www.gdcl.co.uk/2013/02/20/iOS-Video-Encoding.html

    This sends the iphone camera’s video out to a RTSP and it work well.
    But i can’t figure out how to inject the drones streaming video into this demo RTSP app.

    This demo uses
    AVCaptureDevice to capture the cameras streaming data.

    So my questions from this demo are :
    Is there anyway to make my drones stream an AVCAptureDevice ?
    If not, can i just inject the drones raw data into the where the iphones camera data would be and just use the same properties that the iphome camera already configured ?

    if i can’t do those options can I just use the demos RTSP part ?
    If that’s possible, i can that the iphone camera data is being encoded. Does this mean i would need to encode the drones stream ? if so, how would i go about doing this ? The drones SKD uses FFmpeg to output the video so it can be seen in real time on the iphones screen.

    Thanks so much for the help !

  • dashenc : Write out DASH manifest immediately in streaming mode

    8 juin 2021, par Kevin LaFlamme
    dashenc : Write out DASH manifest immediately in streaming mode
    

    When streaming mode is enabled with fMP4/CMAF for DASH output, the
    segment files are available to read by players as soon as the first byte
    is written instead of only after the file is fully written. The DASH
    manifest currently only gets written when the final write to the segment
    file occurs. This means that players cannot stream the first segment
    while it is being written.

    When -lhls is enabled with MP4 segments the HLS manifest is written
    immediately to advertise the in-flight segments. This change adds the
    same behavior for the DASH manifest so players can stream it
    immediately.

    • [DH] libavformat/dashenc.c