Recherche avancée

Médias (91)

Autres articles (76)

  • Gestion des droits de création et d’édition des objets

    8 février 2011, par

    Par défaut, beaucoup de fonctionnalités sont limitées aux administrateurs mais restent configurables indépendamment pour modifier leur statut minimal d’utilisation notamment : la rédaction de contenus sur le site modifiables dans la gestion des templates de formulaires ; l’ajout de notes aux articles ; l’ajout de légendes et d’annotations sur les images ;

  • Dépôt de média et thèmes par FTP

    31 mai 2013, par

    L’outil MédiaSPIP traite aussi les média transférés par la voie FTP. Si vous préférez déposer par cette voie, récupérez les identifiants d’accès vers votre site MédiaSPIP et utilisez votre client FTP favori.
    Vous trouverez dès le départ les dossiers suivants dans votre espace FTP : config/ : dossier de configuration du site IMG/ : dossier des média déjà traités et en ligne sur le site local/ : répertoire cache du site web themes/ : les thèmes ou les feuilles de style personnalisées tmp/ : dossier de travail (...)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

Sur d’autres sites (10079)

  • creating a video from images

    12 septembre 2022, par ALAEDDIN

    My goal is to create a video from images using videoshow : a utility for node/io.js to create straightforward video slideshows based on images using FFmpeg.

    


    The problem i have is when i add more images like 3 with a display resolution of 1024x instead of 640x as in default the program/virtual machine (aws - t3.micro) freezes..until i force a restart in the console.. , but with 2 images the video is rendered just fine..

    


    I guess it's related to the memory.. how i can solve the issue and where i can see the logs ?

    


  • Normalize audio, then reduce the volume in ffmpeg

    27 octobre 2014, par Steve Sheldon

    I have a question relating to ffmpeg. First here is the scenario, I am working on a project where I need to have some audio with a presenter talking and then potentially some background music. I also have the requirement to normalize the audio. I would like to do this without presenting a bunch of options to the user.

    For normalization I use something similar to this post :

    How to normalize audio with ffmpeg.

    In short, I get a volume adjustment which I then apply to ffmpeg like this :

    ffmpeg -i <input /> -af "volume=xxxdB" <output>
    </output>

    So far so good. Now let’s consider the backing track, it doesn’t want to be the same volume as the presenters voice, this would be really distracting, so I want to lower that by some percentage. I can also do this with ffmpeg, I could do it like this (example would set volume to 50%) :

    ffmpeg -i <input /> -af "volume=0.5" <output>
    </output>

    Using these two commands back to back, I can get the desired result.

    My question has two parts :

    1. Is there a way to do this in one step ?
    2. Is there any benefit to doing it in one step ?

    Thanks for any help !

  • moov atom not found (Extracting unique faces from youtube video)

    10 avril 2023, par Tochukwu

    I got the error below

    &#xA;

    Saved 0 unique faces&#xA;[mov,mp4,m4a,3gp,3g2,mj2 @ 0000024f505224c0] moov atom not found&#xA;

    &#xA;

    Trying to extract unique faces from a YouTube video with the code below which is designed to download the YouTube video and extract unique faces into a folder named faces. I got an empty video and folder. Please do check the Python code below

    &#xA;

    import os&#xA;import urllib.request&#xA;import cv2&#xA;import face_recognition&#xA;import numpy as np&#xA;&#xA;# Step 1: Download the YouTube video&#xA;video_url = "https://www.youtube.com/watch?v=JriaiYZZhbY&amp;t=4s"&#xA;urllib.request.urlretrieve(video_url, "video.mp4")&#xA;&#xA;# Step 2: Extract frames from the video&#xA;cap = cv2.VideoCapture("video.mp4")&#xA;frame_count = int(cap.get(cv2.CAP_PROP_FRAME_COUNT))&#xA;frames = []&#xA;for i in range(frame_count):&#xA;    cap.set(cv2.CAP_PROP_POS_FRAMES, i)&#xA;    ret, frame = cap.read()&#xA;    if ret:&#xA;        frames.append(frame)&#xA;cap.release()&#xA;&#xA;# Step 3: Detect faces in the frames&#xA;detected_faces = []&#xA;for i, frame in enumerate(frames):&#xA;    face_locations = face_recognition.face_locations(frame)&#xA;    for j, location in enumerate(face_locations):&#xA;        top, right, bottom, left = location&#xA;        face_image = frame[top:bottom, left:right]&#xA;        cv2.imwrite(f"detected_{i}_{j}.jpg", face_image)&#xA;        detected_faces.append(face_image)&#xA;&#xA;# Step 4: Save the faces as separate images&#xA;if not os.path.exists("faces"):&#xA;    os.makedirs("faces")&#xA;known_faces = []&#xA;for i in range(len(detected_faces)):&#xA;    face_image = detected_faces[i]&#xA;    face_encoding = face_recognition.face_encodings(face_image)[0]&#xA;    known_faces.append(face_encoding)&#xA;    cv2.imwrite(f"faces/face_{i}.jpg", face_image)&#xA;print("Saved", len(known_faces), "unique faces")&#xA;

    &#xA;