Recherche avancée

Médias (91)

Autres articles (72)

  • Le profil des utilisateurs

    12 avril 2011, par

    Chaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
    L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...)

  • Configurer la prise en compte des langues

    15 novembre 2010, par

    Accéder à la configuration et ajouter des langues prises en compte
    Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
    De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
    Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...)

  • XMP PHP

    13 mai 2011, par

    Dixit Wikipedia, XMP signifie :
    Extensible Metadata Platform ou XMP est un format de métadonnées basé sur XML utilisé dans les applications PDF, de photographie et de graphisme. Il a été lancé par Adobe Systems en avril 2001 en étant intégré à la version 5.0 d’Adobe Acrobat.
    Étant basé sur XML, il gère un ensemble de tags dynamiques pour l’utilisation dans le cadre du Web sémantique.
    XMP permet d’enregistrer sous forme d’un document XML des informations relatives à un fichier : titre, auteur, historique (...)

Sur d’autres sites (6965)

  • How to stream live video from DJI Professional 3 camera ?

    5 juin 2017, par raullalves

    I have to get the live stream video from DJI Phantom 3 camera in my C++ application, in order to do a Computer Vision processing in OpenCV.

    First I tried sending the H264 raw data through an UDP socket, inside this callback :

           mReceivedVideoDataCallBack = new CameraReceivedVideoDataCallback() {

           @Override
           public void onResult(byte[] videoBuffer, int size) {
               //Here, I call a method from a class I created, that sends the buffer through UDP
               if (gravar_trigger) controleVideo.enviarFrame(videoBuffer, size);

               if (mCodecManager != null)  mCodecManager.sendDataToDecoder(videoBuffer, size);

           }

       };

    That communication above works well. However, I haven’t been able to decode that UDP H264 data in my C++ desktop application. I have tested with FFmpeg lib, but couldn’t get to alocate an AVPacketwith my UDP data, in order to decode using avcodec_send_packet and avcodec_receive_frame. I also had problems with AVCodecContext, since my UDP communication wasn’t a stream like RTSP, where it could get information about its source. Therefore, I had to change how I was trying to solve the problem.

    Then, I found libstreaming, in which can be associate to stream the android video camera to a Wowza Server, creating something like a RTSP stream connection, where the data could be obtained in my final C++ application easily using OpenCV videoCapture. However, libstreaming uses its own surfaceView. In other words, I would have to link the libstreaming surfaceView with the DJI Drone’s videoSurface. I’m really new to Android, so don’t have any clue of how to do that.

    To sum up, is that the correct approach ? Someone has a better idea ? Thanks in advance

  • How to stream live video from DJI Professional 3 camera ?

    29 avril 2017, par raullalves

    I have to get the live stream video from DJI Phantom 3 camera in my C++ application, in order to do a Computer Vision processing in OpenCV.

    First I tried sending the H264 raw data through an UDP socket, inside this callback :

           mReceivedVideoDataCallBack = new CameraReceivedVideoDataCallback() {

           @Override
           public void onResult(byte[] videoBuffer, int size) {
               //Here, I call a method from a class I created, that sends the buffer through UDP
               if (gravar_trigger) controleVideo.enviarFrame(videoBuffer, size);

               if (mCodecManager != null)  mCodecManager.sendDataToDecoder(videoBuffer, size);

           }

       };

    That communication above works well. However, I haven’t been able to decode that UDP H264 data in my C++ desktop application. I have tested with FFmpeg lib, but couldn’t get to alocate an AVPacketwith my UDP data, in order to decode using avcodec_send_packet and avcodec_receive_frame. I also had problems with AVCodecContext, since my UDP communication wasn’t a stream like RTSP, where it could get information about its source. Therefore, I had to change how I was trying to solve the problem.

    Then, I found libstreaming, in which can be associate to stream the android video camera to a Wowza Server, creating something like a RTSP stream connection, where the data could be obtained in my final C++ application easily using OpenCV videoCapture. However, libstreaming uses its own surfaceView. In other words, I would have to link the libstreaming surfaceView with the DJI Drone’s videoSurface. I’m really new to Android, so don’t have any clue of how to do that.

    To sum up, is that the correct approach ? Someone has a better idea ? Thanks in advance

  • Merge commit ’a9a2f3613040c4f90bf15cbd76f8671252ecc043’

    12 juillet 2015, par Michael Niedermayer
    Merge commit ’a9a2f3613040c4f90bf15cbd76f8671252ecc043’
    

    * commit ’a9a2f3613040c4f90bf15cbd76f8671252ecc043’ :
    doc : add a section about building with libmfx

    Conflicts :
    doc/general.texi

    Merged-by : Michael Niedermayer <michael@niedermayer.cc>

    • [DH] doc/general.texi