Recherche avancée

Médias (0)

Mot : - Tags -/navigation

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (73)

  • Amélioration de la version de base

    13 septembre 2013

    Jolie sélection multiple
    Le plugin Chosen permet d’améliorer l’ergonomie des champs de sélection multiple. Voir les deux images suivantes pour comparer.
    Il suffit pour cela d’activer le plugin Chosen (Configuration générale du site > Gestion des plugins), puis de configurer le plugin (Les squelettes > Chosen) en activant l’utilisation de Chosen dans le site public et en spécifiant les éléments de formulaires à améliorer, par exemple select[multiple] pour les listes à sélection multiple (...)

  • Mise à jour de la version 0.1 vers 0.2

    24 juin 2013, par

    Explications des différents changements notables lors du passage de la version 0.1 de MediaSPIP à la version 0.3. Quelles sont les nouveautés
    Au niveau des dépendances logicielles Utilisation des dernières versions de FFMpeg (>= v1.2.1) ; Installation des dépendances pour Smush ; Installation de MediaInfo et FFprobe pour la récupération des métadonnées ; On n’utilise plus ffmpeg2theora ; On n’installe plus flvtool2 au profit de flvtool++ ; On n’installe plus ffmpeg-php qui n’est plus maintenu au (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (13307)

  • Tools to determine video orientation

    6 avril 2014, par JayLev

    I receive videos from different devices and want to encode them using the correct orientation.

    I've seen some of examples of how to determine the orientation of a video from a iPhone.

    With exiftool and mediainfo I can indeed tell if an iPhone video has to be rotated.

    However, for android videos, both portrait and landscape videos have the same rotation and matrix structure as each other.

    Maybe this is just with my phone, I'm trying to find videos taken from newer droid phones.

    My question however is whether there's other tools or a different way to determine the orientation that'll work with all devices.

    EDIT :
    I just checked a video from a Samsung Galaxy S II, and I can get the orientation from exiftool. So it's not a problem with all android phones.
    My android phone is a HTC Desire running on android 2.2.

    And actually (I didn't even notice before) a portrait video will not be correctly oriented even when playing on the phone. So I guess it's not about the tools, the orientation data just doesn't seem to be correct at all.

  • Connect external cameras to iOS and decompress to a usable form

    27 septembre 2017, par Ping Chen

    I want to create a 2 camera setup which can send 1 of the camera views out as an RTMP stream depending on the motion intensity detected. The chosen camera view can change if motion intensity on the views changes.

    I imagine that I could use an iPhone/iPad as encoding/streaming hub as well as 1 of the cameras. And connect a WiFi camera to the iPad/iPhone to feed the 2nd camera view.

    My goals for the iOS side are :

    1. Connect with a WiFi camera on the local network
    2. Decode the data and run motion intensity detection on the WiFi camera feed AND the iPhone/iPad’s own camera feed with Brad Larson’s GPUImage framework https://github.com/BradLarson/GPUImage
    3. Stream out the chosen camera view. depending on motion detected

    Larson’s GPUImage framework works with an AVCaptureSession subclass. I’m only familiar with AVFoundation objects, but am a complete noob with it comes to VideoToolbox and some of the lower level iOS video stuff. Through googling, I kind of know that VTDecompressionSession is what I’d get from the WiFi camera. I have no clue how I can manipulate that to a usable form for my purposes.

    I’ve dug through stackoverflow answers such as : https://stackoverflow.com/a/29525001/7097455

    Very informative, but maybe I don’t even know to ask the correct questions

  • Reading geolocation data from a video file using FFMpeg/Xuggler

    23 décembre 2015, par agent154

    Using the MediaInfo application, I am able to see that a file taken with an iPhone 5 contains geolocation metadata, tagged both with ©xyz and com.apple.quicktime.location.ISO6709. I am not able to find any way to get this data using xuggler, however.

    Format                                   : MPEG-4
    Format profile                           : QuickTime
    Codec ID                                 : qt   0000.00 (qt  )
    File size                                : 7.50 MiB
    Duration                                 : 3s 537ms
    Overall bit rate                         : 17.8 Mbps
    Recorded date                            : 2015-12-17T14:32:23-0330
    Encoded date                             : UTC 2015-12-17 18:02:23
    Tagged date                              : UTC 2015-12-17 18:02:27
    Writing application                      : 8.4.1
    Writing library                          : Apple QuickTime
    Model                                    : iPhone 5
    ©xyz                                     : +47.5184-052.8046+133.390/
    Make                                     : Apple
    com.apple.quicktime.make                 : Apple
    com.apple.quicktime.creationdate         : 2015-12-17T14:32:23-0330
    com.apple.quicktime.location.ISO6709     : +47.5184-052.8046+133.390/
    com.apple.quicktime.software             : 8.4.1
    com.apple.quicktime.model                : iPhone 5

    As an aside, there seems to be a lot of metadata on this file that I can’t immediately find while debugging via xuggler.

    The question at Reading Geolocation from Quicktime Movies with Java (Xuggler) ? is asking the exact same question, but has no answers or comments at all, and is over 4 years old.

    Is anybody aware of a way to be able to get this data using xuggler as it is, or how I can modify the source and re-compile to make it work ? I am required to get this data for a work project. Thanks.