Recherche avancée

Médias (1)

Mot : - Tags -/net art

Autres articles (61)

  • L’utiliser, en parler, le critiquer

    10 avril 2011

    La première attitude à adopter est d’en parler, soit directement avec les personnes impliquées dans son développement, soit autour de vous pour convaincre de nouvelles personnes à l’utiliser.
    Plus la communauté sera nombreuse et plus les évolutions seront rapides ...
    Une liste de discussion est disponible pour tout échange entre utilisateurs.

  • Les statuts des instances de mutualisation

    13 mars 2010, par

    Pour des raisons de compatibilité générale du plugin de gestion de mutualisations avec les fonctions originales de SPIP, les statuts des instances sont les mêmes que pour tout autre objets (articles...), seuls leurs noms dans l’interface change quelque peu.
    Les différents statuts possibles sont : prepa (demandé) qui correspond à une instance demandée par un utilisateur. Si le site a déjà été créé par le passé, il est passé en mode désactivé. publie (validé) qui correspond à une instance validée par un (...)

  • MediaSPIP Init et Diogène : types de publications de MediaSPIP

    11 novembre 2010, par

    À l’installation d’un site MediaSPIP, le plugin MediaSPIP Init réalise certaines opérations dont la principale consiste à créer quatre rubriques principales dans le site et de créer cinq templates de formulaire pour Diogène.
    Ces quatre rubriques principales (aussi appelées secteurs) sont : Medias ; Sites ; Editos ; Actualités ;
    Pour chacune de ces rubriques est créé un template de formulaire spécifique éponyme. Pour la rubrique "Medias" un second template "catégorie" est créé permettant d’ajouter (...)

Sur d’autres sites (7493)

  • CMTimeGetSeconds doesn't get the right video duration

    26 février 2015, par JLCastillo

    some users don’t get the right duration of videos they capture with their own device. The funny thing is others do actually see it right, using the same device models and OS version. Anyway, we observed it in a iPhone 5c 7.1.2 and an iPhone 5s 8.1.3.

    This code works for most users, but not all :

    ALAssetRepresentation *representation = [mediaObject.asset defaultRepresentation];
    NSURL *url = [representation url];
    NSDictionary *options = @{ AVURLAssetPreferPreciseDurationAndTimingKey : @YES };
    AVAsset *avAsset = [AVURLAsset URLAssetWithURL:url options:options];
    videoDurationTime = CMTimeGetSeconds(avAsset.duration);

    I asked them to send the input videos, and this is the output from "ffmpeg -i"

    Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'bug_duration1.MOV':
     Metadata:
       major_brand     : qt
       minor_version   : 0
       compatible_brands: qt
       creation_time   : 2015-02-23 08:30:01
       encoder         : 8.1.3
       encoder-eng     : 8.1.3
       date            : 2015-02-23T16:30:01+0800
       date-eng        : 2015-02-23T16:30:01+0800
       model           : iPhone 5s
       model-eng       : iPhone 5s
       make            : Apple
       make-eng        : Apple
     Duration: 00:00:03.67, start: 0.000000, bitrate: 16793 kb/s
       Stream #0:0(und): Video: h264 (High) (avc1 / 0x31637661), yuv420p(tv, bt709), 1920x1080, 16719 kb/s, 29.99 fps, 29.97 tbr, 600 tbn, 1200 tbc (default)
       Metadata:
         creation_time   : 2015-02-23 08:30:01
         handler_name    : Core Media Data Handler
         encoder         : H.264
       Stream #0:1(und): Audio: aac (mp4a / 0x6134706D), 44100 Hz, mono, fltp, 61 kb/s (default)
       Metadata:
         creation_time   : 2015-02-23 08:30:01
         handler_name    : Core Media Data Handler

    The video is detected with a duration of several minutes. Did anybody face this problem before ?

    Thanks in advance.

  • ffmpeg override the same file for every second of the video [on hold]

    5 février 2017, par Dorin Pleava

    I want to get one image for every 10 seconds from a livestream/video, but the image should have the same name, meaning I want to override it every cycle.

    This is my command :

    ffmpeg.exe -i http://iphone-streaming.ustream.tv/uhls/17074538/streams/live/iphone/playlist.m3u8 -bt 20M -s 480x300 -vf fps=1/10 -y photo.jpg

    This code works for one image but for the next I get this

    "Could not get frame filename number 2 from pattern ’photo.jpg’ (either set updatefirst or use a pattern like %03d within the filename pattern)
    av_interleaved_write_frame() : Invalid argument"

    If I replace photo.jpeg with photo%03d.jpg I get photo001.jpec, followed by photo002.jpeg, etc.

  • hls live streaming using ffmpeg in iOS

    25 mars 2015, par chetan

    I am new to ffmpeg and I am trying to create live streaming app (HLS) and I want Live broadcasting rather than VOD.

    I am able to use ffmpeg through terminal and create .ts files from m4v but I am not getting how to achieve the same thing in iPhone.

    My approach is to create .ts files at iPhone end and then send it to server.

    I am not sure if this approach is correct, If this correct how I can create .ts files then otherwise what’s the right approach ?