Recherche avancée

Médias (1)

Mot : - Tags -/biomaping

Autres articles (78)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

  • Sélection de projets utilisant MediaSPIP

    29 avril 2011, par

    Les exemples cités ci-dessous sont des éléments représentatifs d’usages spécifiques de MediaSPIP pour certains projets.
    Vous pensez avoir un site "remarquable" réalisé avec MediaSPIP ? Faites le nous savoir ici.
    Ferme MediaSPIP @ Infini
    L’Association Infini développe des activités d’accueil, de point d’accès internet, de formation, de conduite de projets innovants dans le domaine des Technologies de l’Information et de la Communication, et l’hébergement de sites. Elle joue en la matière un rôle unique (...)

  • Gestion des droits de création et d’édition des objets

    8 février 2011, par

    Par défaut, beaucoup de fonctionnalités sont limitées aux administrateurs mais restent configurables indépendamment pour modifier leur statut minimal d’utilisation notamment : la rédaction de contenus sur le site modifiables dans la gestion des templates de formulaires ; l’ajout de notes aux articles ; l’ajout de légendes et d’annotations sur les images ;

Sur d’autres sites (9615)

  • Android RTSP streaming buffer size for delayed playback

    19 novembre 2012, par frijj2k

    I can access and view RTSP streams from IP cameras on Android via the VideoView component without problems.

    Now I need to play the RTSP stream with a delay (i.e. if I specify a 30 second delay, the playback on screen should be 30 seconds behind the source and the delay needs to be variable though not during playback, only at the point of connecting to the source).

    I originally thought this would not be a problem as I could simply change the RTSP buffer duration before connecting to the camera but unfortunately it seems the buffer size is baked into the firmware and cannot be changed in software. Now I have got a horrible feeling that my way forward will be to compile a version of FFMpeg for Android and somehow get the stream data out from the library, buffer it and then render it myself and I have no experience with FFMpeg.

    I am unsure how I would now go about solving this problem and any help or pointers in the right direction would be greatly appreciated.

    Update :

    Sorry I forgot to mention, the RTSP stream is being accessed over WiFi on a LAN so no huge latency issues here from going over the Internet.

  • FFmpeg drawtext - Could not load fontface from file [closed]

    9 avril 2013, par falek.marcin

    I've try to add simple text on top of video with FFmpeg using drawtext parameter. Every time i'm going to do this, error is returned :

    Could not load fontface from file 'arial.ttf' : cannot open resource

    To indicate the location of the font I used the following methods :

    ffmpeg -i C:\Test\rec\vid_1321909320.avi -vf drawtext=fontfile=arial.ttf:text=test -sameq vid_1321909320.flv
    ffmpeg -i C:\Test\rec\vid_1321909320.avi -vf drawtext=fontfile=C:\Windows\Fonts\arial.ttf:text=test -sameq vid_1321909320.flv

    All have failed. Does anyone have experience with adding text using ffmpeg ?

    FFMPEG version: N-34549-g13b7781 build on Nov 6 2011
  • using ffmpeg implementation live video/audio

    14 mars 2018, par geeeek

    I am going to implementation live video/audio service using ffmpeg.

    I am using embedded board with camera, mic. Receiver is android phone.

    as summary :
    sender : embedded board.
    receiver : android phone.

    I have an embedded board with a camera and a microphone. The camera’s data is raw h264 data, and the audio data is raw pcm data. I want to do live video communication with Android phone, but I do not know how.

    I would like to mux two data with ffmpeg and send it, but I do not know if it is possible. Thank you for your advice.

    I can not be sure because I have no experience about ffmpeg in live.

    About above enviroment please suggest your best methods.