Recherche avancée

Médias (3)

Mot : - Tags -/collection

Autres articles (103)

  • Mise à jour de la version 0.1 vers 0.2

    24 juin 2013, par

    Explications des différents changements notables lors du passage de la version 0.1 de MediaSPIP à la version 0.3. Quelles sont les nouveautés
    Au niveau des dépendances logicielles Utilisation des dernières versions de FFMpeg (>= v1.2.1) ; Installation des dépendances pour Smush ; Installation de MediaInfo et FFprobe pour la récupération des métadonnées ; On n’utilise plus ffmpeg2theora ; On n’installe plus flvtool2 au profit de flvtool++ ; On n’installe plus ffmpeg-php qui n’est plus maintenu au (...)

  • Personnaliser en ajoutant son logo, sa bannière ou son image de fond

    5 septembre 2013, par

    Certains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;

  • Multilang : améliorer l’interface pour les blocs multilingues

    18 février 2011, par

    Multilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
    Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela.

Sur d’autres sites (11419)

  • CMTimeGetSeconds doesn't get the right video duration

    26 février 2015, par JLCastillo

    some users don’t get the right duration of videos they capture with their own device. The funny thing is others do actually see it right, using the same device models and OS version. Anyway, we observed it in a iPhone 5c 7.1.2 and an iPhone 5s 8.1.3.

    This code works for most users, but not all :

    ALAssetRepresentation *representation = [mediaObject.asset defaultRepresentation];
    NSURL *url = [representation url];
    NSDictionary *options = @{ AVURLAssetPreferPreciseDurationAndTimingKey : @YES };
    AVAsset *avAsset = [AVURLAsset URLAssetWithURL:url options:options];
    videoDurationTime = CMTimeGetSeconds(avAsset.duration);

    I asked them to send the input videos, and this is the output from "ffmpeg -i"

    Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'bug_duration1.MOV':
     Metadata:
       major_brand     : qt
       minor_version   : 0
       compatible_brands: qt
       creation_time   : 2015-02-23 08:30:01
       encoder         : 8.1.3
       encoder-eng     : 8.1.3
       date            : 2015-02-23T16:30:01+0800
       date-eng        : 2015-02-23T16:30:01+0800
       model           : iPhone 5s
       model-eng       : iPhone 5s
       make            : Apple
       make-eng        : Apple
     Duration: 00:00:03.67, start: 0.000000, bitrate: 16793 kb/s
       Stream #0:0(und): Video: h264 (High) (avc1 / 0x31637661), yuv420p(tv, bt709), 1920x1080, 16719 kb/s, 29.99 fps, 29.97 tbr, 600 tbn, 1200 tbc (default)
       Metadata:
         creation_time   : 2015-02-23 08:30:01
         handler_name    : Core Media Data Handler
         encoder         : H.264
       Stream #0:1(und): Audio: aac (mp4a / 0x6134706D), 44100 Hz, mono, fltp, 61 kb/s (default)
       Metadata:
         creation_time   : 2015-02-23 08:30:01
         handler_name    : Core Media Data Handler

    The video is detected with a duration of several minutes. Did anybody face this problem before ?

    Thanks in advance.

  • ffmpeg override the same file for every second of the video [on hold]

    5 février 2017, par Dorin Pleava

    I want to get one image for every 10 seconds from a livestream/video, but the image should have the same name, meaning I want to override it every cycle.

    This is my command :

    ffmpeg.exe -i http://iphone-streaming.ustream.tv/uhls/17074538/streams/live/iphone/playlist.m3u8 -bt 20M -s 480x300 -vf fps=1/10 -y photo.jpg

    This code works for one image but for the next I get this

    "Could not get frame filename number 2 from pattern ’photo.jpg’ (either set updatefirst or use a pattern like %03d within the filename pattern)
    av_interleaved_write_frame() : Invalid argument"

    If I replace photo.jpeg with photo%03d.jpg I get photo001.jpec, followed by photo002.jpeg, etc.

  • hls live streaming using ffmpeg in iOS

    25 mars 2015, par chetan

    I am new to ffmpeg and I am trying to create live streaming app (HLS) and I want Live broadcasting rather than VOD.

    I am able to use ffmpeg through terminal and create .ts files from m4v but I am not getting how to achieve the same thing in iPhone.

    My approach is to create .ts files at iPhone end and then send it to server.

    I am not sure if this approach is correct, If this correct how I can create .ts files then otherwise what’s the right approach ?