Recherche avancée

Médias (91)

Autres articles (65)

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 est la première version de MediaSPIP stable.
    Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Mise à disposition des fichiers

    14 avril 2011, par

    Par défaut, lors de son initialisation, MediaSPIP ne permet pas aux visiteurs de télécharger les fichiers qu’ils soient originaux ou le résultat de leur transformation ou encodage. Il permet uniquement de les visualiser.
    Cependant, il est possible et facile d’autoriser les visiteurs à avoir accès à ces documents et ce sous différentes formes.
    Tout cela se passe dans la page de configuration du squelette. Il vous faut aller dans l’espace d’administration du canal, et choisir dans la navigation (...)

  • XMP PHP

    13 mai 2011, par

    Dixit Wikipedia, XMP signifie :
    Extensible Metadata Platform ou XMP est un format de métadonnées basé sur XML utilisé dans les applications PDF, de photographie et de graphisme. Il a été lancé par Adobe Systems en avril 2001 en étant intégré à la version 5.0 d’Adobe Acrobat.
    Étant basé sur XML, il gère un ensemble de tags dynamiques pour l’utilisation dans le cadre du Web sémantique.
    XMP permet d’enregistrer sous forme d’un document XML des informations relatives à un fichier : titre, auteur, historique (...)

Sur d’autres sites (10781)

  • Mac Merge an Audio and Video file together

    13 mars 2014, par user2433617

    So I have a audio and video clip that are the same lengths together and I would like to merge them into one file to make a video clip with sound.

    I found this answer, but it is for iPhone it seems : Merging Audio with Video Objective-C

    Basically, what I want to do is this command from FFMPEG :

    ffmpeg -i TestRecording-20140363110156.mov -i 1393956048.wav -vcodec copy out.mov

    Is this possible ? If not, can I just include the compiled ffmpeg file into my project and call that ?

    Thanks.

  • AR Drone 2.0 video streaming whitout SDK on iOS

    10 janvier 2014, par JosephITA

    I'm coding an app for iOS that interact with the AR Drone 2.0 without using the SDK (poor documentation on the iPhone example).
    At the moment I can send command and receive navdata.
    I have no idea in how to receive video streaming. I know that is an H.264 stream and that I can use ffmpeg, but I'm not sure that this solution will pass the Apple revision.
    Any ideas ?

  • Why frame->pts increases by 20, rather than by 1 ?

    19 mars 2013, par user1914692

    Following the exmaples of ffmpeg : decoding_encoding.c and filtering_video.c, I process one video file taken by iPhone. The video file : .mov, video dimensions ; 480x272, video Codec : H.264/AVC, 30 frames per second, bitrate : 605 kbps.

    I first extract each frame, which is YUV.
    I convert YUV to RGB24, and process the RGB24, then write the RGB24 to a .ppm file. It shows the .ppm file is correct.

    Then I plan to encode processed RGB24 frames to a video file.
    Since MPEG does not support RGB24 picture format, I used AV_CODEC_ID_HUFFYUV.
    But the output video file (showing 18.5 MB) does not play. Movie Player on Ubuntu claims an error : Could not determine type of stream.
    I also tried it on VCL. It simply does not work, without any error information.

    My second questions is :
    For each extracted fram from the input video file, I get its pts as follows according to filtering_video.c :

    frame->pts = av_frame_get_best_effort_timestamp(frame);

    I print out each frame's pts, and find that it increases by 20, like below :

    pFrameRGB_count: 0,  frame->pts: 0
    pFrameRGB_count: 1,  frame->pts: 20
    pFrameRGB_count: 2,  frame->pts: 40
    pFrameRGB_count: 3,  frame->pts: 60

    Where frame is the extracted frame from the input video, and pFrameRGB_count is the count for processed frame in RGB24 form.

    Why are they wrong ?