Advanced search

Medias (91)

Other articles (83)

  • Amélioration de la version de base

    13 September 2013

    Jolie sélection multiple
    Le plugin Chosen permet d’améliorer l’ergonomie des champs de sélection multiple. Voir les deux images suivantes pour comparer.
    Il suffit pour cela d’activer le plugin Chosen (Configuration générale du site > Gestion des plugins), puis de configurer le plugin (Les squelettes > Chosen) en activant l’utilisation de Chosen dans le site public et en spécifiant les éléments de formulaires à améliorer, par exemple select[multiple] pour les listes à sélection multiple (...)

  • Menus personnalisés

    14 November 2010, by

    MediaSPIP utilise le plugin Menus pour gérer plusieurs menus configurables pour la navigation.
    Cela permet de laisser aux administrateurs de canaux la possibilité de configurer finement ces menus.
    Menus créés à l’initialisation du site
    Par défaut trois menus sont créés automatiquement à l’initialisation du site : Le menu principal; Identifiant : barrenav; Ce menu s’insère en général en haut de la page après le bloc d’entête, son identifiant le rend compatible avec les squelettes basés sur Zpip; Éléments (...)

  • Configuration spécifique pour PHP5

    4 February 2011, by

    PHP5 est obligatoire, vous pouvez l’installer en suivant ce tutoriel spécifique.
    Il est recommandé dans un premier temps de désactiver le safe_mode, cependant, s’il est correctement configuré et que les binaires nécessaires sont accessibles, MediaSPIP devrait fonctionner correctement avec le safe_mode activé.
    Modules spécifiques
    Il est nécessaire d’installer certains modules PHP spécifiques, via le gestionnaire de paquet de votre distribution ou manuellement : php5-mysql pour la connectivité avec la (...)

On other websites (4451)

  • Google Colab Runtime Error please install ffmpeg (version 4.2 is currently supported) andbuild torchvision from source

    4 July 2021, by Iman

    I'm using Google Colab to write a program using torch vision to extract frames from an mp4 video in my google drive. Thus far, I haven't wrote the full code yet but have been experimenting with torch vision.io library. Upon running the code, I get the following errors.

    


    Mounted at /content/gdrive&#xA;---------------------------------------------------------------------------&#xA;RuntimeError                              Traceback (most recent call last)&#xA; in <module>()&#xA;      6 &#xA;      7 video_path = "/content/drive/MyDrive/Training-Data-Videos/MASKED/00_MASKED_0_0.mp4"&#xA;----> 8 reader = torchvision.io.VideoReader(video_path, "video")&#xA;      9 reader.seek(2.0)&#xA;     10 frame = next(reader)&#xA;&#xA;/usr/local/lib/python3.7/dist-packages/torchvision/io/__init__.py in __init__(self, path, stream)&#xA;    106                 &#x2B; "to enable video_reader support, please install "&#xA;    107                 &#x2B; "ffmpeg (version 4.2 is currently supported) and"&#xA;--> 108                 &#x2B; "build torchvision from source."&#xA;    109             )&#xA;    110         self._c = torch.classes.torchvision.Video(path, stream)&#xA;&#xA;RuntimeError: Not compiled with video_reader support, to enable video_reader support, please install ffmpeg (version 4.2 is currently supported) andbuild torchvision from source.&#xA;&#xA;</module>

    &#xA;

    The code that I have written in the notebook so far is the following:

    &#xA;

    import os &#xA;import torchvision &#xA;from google.colab import drive&#xA;drive.mount(&#x27;/content/gdrive&#x27;, force_remount=True)&#xA;&#xA;video_path = "/content/drive/MyDrive/Training-Data-Videos/MASKED/00_MASKED_0_0.mp4"&#xA;reader = torchvision.io.VideoReader(video_path, "video")&#xA;reader.seek(2.0)&#xA;frame = next(reader)&#xA;print (frame)&#xA;&#xA;

    &#xA;

    To solve the problem, I tried to install ffmpeg on colab as this post says but it did not work. Can someone tell me what is the error?

    &#xA;

  • Improving accuracy of Google Cloud Speech API

    17 August 2018, by Shaikat Haque

    I am currently recording audio from a web page on my Mac OS computer and running it through the cloud speech api to produce a transcript. However, the results aren’t that accurate and there are chunks of missing words in the results.

    Are there any steps that would help me yield more accurate results?

    Here are the steps I am taking to convert audio to text:

    1. Use Soundflower to channel audio output from my soundcard to mic in.
    2. Play audio from website
    3. Use quickTime player to record audio which is saved as a .m4a file.
    4. Use the command line tool ffmpeg to convert the .m4a file to a
      .flac, and also combine 2 audio channels (stereo) to 1 audio channel (mono).
    5. Upload the .flac file to Google Cloud Storage. The file has a sample rate of 44100Hz and has 24 bits per sample.
    6. Use the longRunningRecognize api via the node.js client library,
      pointing to the file in Google cloud storage.
  • FFmpeg: Different color brightness converting mov to mp4 with alpha

    3 August 2023, by Miguel Zafra

    I am using this code:

    &#xA;

    ffmpeg -i in.mov -c:v hevc_videotoolbox -allow_sw 1 -alpha_quality 0.9 -tag:v hvc1 -q:v 100 -vf premultiply=inplace=1 out-n.mp4&#xA;

    &#xA;

    To convert my MOV with alpha to MP4 with alpha for a web use. However the export color is different.

    &#xA;

    Original:

    &#xA;

    enter image description here

    &#xA;

    MP4 Export:

    &#xA;

    enter image description here

    &#xA;

    Any idea of how can I keep the original MOV colors?

    &#xA;

    Thank you

    &#xA;