Recherche avancée

Médias (91)

Autres articles (107)

  • Les autorisations surchargées par les plugins

    27 avril 2010, par

    Mediaspip core
    autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs

  • Le profil des utilisateurs

    12 avril 2011, par

    Chaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
    L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...)

  • Configurer la prise en compte des langues

    15 novembre 2010, par

    Accéder à la configuration et ajouter des langues prises en compte
    Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
    De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
    Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...)

Sur d’autres sites (12477)

  • how to deal with live raw h264 stream to send over network

    3 novembre 2015, par jinhwan

    what I want to do is that send live camera stream which is encoded by h264 to gstreamer. I already have seen many example which send over network by using rtp and mpeg-ts. But problem is that all those examples assume that the input will be served by fixed file or live stream which is already transcoded in transport portocol like below.

    client :
    gst-launch-1.0 videotestsrc horizontal-speed=5 ! x264enc tune="zerolatency" threads=1 ! mpegtsmux ! tcpserversink host=192.168.0.211 port=8554

    server : gst-launch-1.0 tcpclientsrc port=8554 host=192.168.0.211 ! tsdemux ! h264parse ! avdec_h264 ! xvimagesink

    But, My camera offer the below interface (written in java, actually work on adnroid). The interface offer just live raw h264 blocks.

    mReceivedVideoDataCallBack=newDJIReceivedVideoDataCallBack(){
       @Override
       public void onResult(byte[] videoBuffer, int size)
       {
    }

    I can create tcp session to send those data block. But, how can i make those data which is not packed in transport protocol into format which is understable by gstreamer tcpclient ?
    Transcode the original stream in ts format in the camera side can be a solution. But i have no clue to do transcode from non-file and non-transport-format data. I have searched gstreamer and ffmpeg, But I could not derive a way to deal h264 block stream using the supported interface, unitl now.
    Or, Are there any way to make gstreamer to directly accept those simple raw h264 block ?

  • Adding a forced delay to ffmpeg

    26 août 2017, par GlitchedTurtle

    I am looking to capture a stream with ffmpeg and then relay it to something else in nodejs. The problem is, the host i will be using will sometimes lag and I would like to prevent this by adding a forced delay. Is this possible with ffmpeg or will I have to add this in with code ?

  • How can i convert avchd(mts) to mpeg2 on ffmpeg-android

    8 décembre 2015, par ismail ballı

    This is video information ffmpeg -i on my computer

    ffmpeg version 2.8 Copyright (c) 2000-2015 the FFmpeg developers
     built with Apple LLVM version 7.0.0 (clang-700.0.72)
     configuration: --prefix=/usr/local/Cellar/ffmpeg/2.8 --enable-shared --enable-pthreads --enable-gpl --enable-version3 --enable-hardcoded-tables --enable-avresample --cc=clang --host-cflags= --host-ldflags= --enable-opencl --enable-libx264 --enable-libmp3lame --enable-libvo-aacenc --enable-libxvid --enable-vda
     libavutil      54. 31.100 / 54. 31.100
     libavcodec     56. 60.100 / 56. 60.100
     libavformat    56. 40.101 / 56. 40.101
     libavdevice    56.  4.100 / 56.  4.100
     libavfilter     5. 40.101 /  5. 40.101
     libavresample   2.  1.  0 /  2.  1.  0
     libswscale      3.  1.101 /  3.  1.101
     libswresample   1.  2.101 /  1.  2.101
     libpostproc    53.  3.100 / 53.  3.100
    Input #0, mpegts, from '00002.MTS':
     Duration: 00:00:04.80, start: 1.020000, bitrate: 28108 kb/s
     Program 1
       Stream #0:0[0x1011]: Video: h264 (High) (HDPR / 0x52504448), yuv420p, 1920x1080 [SAR 1:1 DAR 16:9], 50 fps, 50 tbr, 90k tbn, 100 tbc
       Stream #0:1[0x1100]: Audio: pcm_bluray (HDPR / 0x52504448), 48000 Hz, stereo, s16, 1536 kb/s
       Stream #0:2[0x1200]: Subtitle: hdmv_pgs_subtitle ([144][0][0][0] / 0x0090), 1920x1080

    Android code here

    String[] cmd2 = new String[13];
       cmd2[0] = "-i";
       cmd2[1] = "/storage/video.mts";
       cmd2[2] = "-s";
       cmd2[3] = "1920x2080;
       cmd2[4] = "-c:v";
       cmd2[5] = "libxvid";
       cmd2[6] = "-c:a";
       cmd2[7] = "libfaac";
       cmd2[8] = "-ac";
       cmd2[9] = "2";
       cmd2[10] = "-strict";
       cmd2[11] = "-2";
       cmd2[12] = "/storage/video.mpg";

    -> this code error "aac channel element 0.0 is not allocated."
    How can i convert mts to mpeg2 on android with ffmpeg ?