Recherche avancée

Médias (1)

Mot : - Tags -/pirate bay

Autres articles (36)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

  • Encodage et transformation en formats lisibles sur Internet

    10 avril 2011

    MediaSPIP transforme et ré-encode les documents mis en ligne afin de les rendre lisibles sur Internet et automatiquement utilisables sans intervention du créateur de contenu.
    Les vidéos sont automatiquement encodées dans les formats supportés par HTML5 : MP4, Ogv et WebM. La version "MP4" est également utilisée pour le lecteur flash de secours nécessaire aux anciens navigateurs.
    Les documents audios sont également ré-encodés dans les deux formats utilisables par HTML5 :MP3 et Ogg. La version "MP3" (...)

  • Librairies et logiciels spécifiques aux médias

    10 décembre 2010, par

    Pour un fonctionnement correct et optimal, plusieurs choses sont à prendre en considération.
    Il est important, après avoir installé apache2, mysql et php5, d’installer d’autres logiciels nécessaires dont les installations sont décrites dans les liens afférants. Un ensemble de librairies multimedias (x264, libtheora, libvpx) utilisées pour l’encodage et le décodage des vidéos et sons afin de supporter le plus grand nombre de fichiers possibles. Cf. : ce tutoriel ; FFMpeg avec le maximum de décodeurs et (...)

Sur d’autres sites (4865)

  • How to manipulate files by ffmpeg in Android 31 : permission denied

    17 septembre 2021, par Omid.N

    I am trying to use FFmpeg in my android app. So I want to test it if it works before moving on. I use an external library : github link
    
The code looks like this :

    


    package net.omidn.aslanmediaconverter;

import android.net.Uri;
import android.os.Bundle;
import android.util.Log;
import android.widget.TextView;

import androidx.appcompat.app.AppCompatActivity;

import com.arthenica.ffmpegkit.ExecuteCallback;
import com.arthenica.ffmpegkit.FFmpegKit;
import com.arthenica.ffmpegkit.FFmpegSession;
import com.arthenica.ffmpegkit.Session;

import net.bramp.ffmpeg.job.FFmpegJob;

import java.io.BufferedInputStream;
import java.io.File;
import java.io.IOException;
import java.io.InputStream;


public class MainActivity extends AppCompatActivity {
    
    private static final String TAG = "MainActivity";
    FFmpegJob myjob;

    @Override
    protected void onCreate(Bundle savedInstanceState) {


        super.onCreate(savedInstanceState);
        setContentView(R.layout.activity_main);

        TextView textView = (TextView) findViewById(R.id.text_view);


        FFmpegJob job = null;

        File inFile = new File("/storage/emulated/0/video_2021-05-29_17-50-20.mp4");
        String inputName = Uri.fromFile(inFile).toString();
        Log.d(TAG, inputName);
        Log.d(TAG,"file exists : " + String.valueOf(inFile.exists()));
        Log.d(TAG,"file canRead : " + String.valueOf(inFile.canRead()));

        FFmpegSession fFmpegSession = FFmpegKit.executeAsync("-i file:///storage/emulated/0/video_2021-05-29_17-50-20.mp4 -c:v mpeg4 file:///storage/emulated/0/out.mp4",
                new ExecuteCallback() {
                    @Override
                    public void apply(Session session) {

                    }
                });
        try {
            Thread.sleep(5000);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
        textView.setText("" + fFmpegSession.getState().name() + "    " + fFmpegSession.getOutput());
    }

}



    


    As you can see I give the files with file:/// protocol. If I don't use that the resault is the same. The three lines of Log.d(...) will print :

    


    2021-06-03 00:58:08.869 8376-8376/net.omidn.aslanmediaconverter D/MainActivity: file:///storage/emulated/0/video_2021-05-29_17-50-20.mp4
2021-06-03 00:58:08.869 8376-8376/net.omidn.aslanmediaconverter D/MainActivity: file exists : true
2021-06-03 00:58:08.869 8376-8376/net.omidn.aslanmediaconverter D/MainActivity: file canRead : false


    


    The video file has read access on the storage :
The video file has read access

    


  • avfilter/x86/vf_blend : use unaligned movs for output

    19 janvier 2022, par Marton Balint
    avfilter/x86/vf_blend : use unaligned movs for output
    

    Fixes crashes with :

    ffmpeg -f lavfi -i allyuv=d=1 -vf tblend=difference128,pad=5000:ih:1 -f null x

    Signed-off-by : Marton Balint <cus@passwd.hu>

    • [DH] libavfilter/x86/vf_blend.asm
  • node.js ffmpeg spawn child_process unexpected data output

    5 septembre 2021, par PLNR

    &#xA;I'm rather new to backend stuff, so please excuse, if my question is trivial.
    &#xA;For an Intranet project, I want to present a video element in a webpage (React, HLS.js Player).
    &#xA;The video sources are mpeg-ts streams delivered as udp multicast.
    &#xA;A small node.js / express server should handle the ffmpeg commands, to transcode the multicast to hls to display them in a browser.
    &#xA;
    &#xA;Problem is the Output :
    &#xA;The output is emitted on stderr... even the process is working as expected.
    &#xA;Here is the respective code I wrote for transcoding so far :

    &#xA;

    const express = require("express");&#xA;const { spawn, exec } = require("child_process");&#xA;const process = require("process")&#xA;&#xA;let ls;&#xA;&#xA;const app = express();&#xA;&#xA;app.get(&#x27;/cam/:source&#x27;, (body) => {&#xA;    const cam = body.params.source;&#xA;    console.log(cam);&#xA;&#xA;    let source = "udp://239.1.1.1:4444";&#xA;    let stream = "/var/www/html/streams/tmp/cam1.m3u8"&#xA;&#xA;&#xA;    stream = spawn("ffmpeg", ["-re", "-i", source, "-c:v", "libx264", "-crf", "21", "-preset", "veryfast", "-c:a", "aac", "-b:a", "128k", "-ac", "2", "-f", "hls", "-hls_list_size", "5", "-hls_flags", "delete_segments", stream], {detached: true});&#xA;&#xA;    stream.stdout.on("data", data => {&#xA;        console.log(`stdout: ${data}`);&#xA;    });&#xA;&#xA;    stream.stderr.on("data", data => {&#xA;        console.log(`stderr: ${data}`);&#xA;    });&#xA;&#xA;    stream.on("error", error => {&#xA;        console.log(`error: ${error.message}`);&#xA;    });&#xA;&#xA;    stream.on("close", code => {&#xA;        console.log(`child process exited with code ${code}`);&#xA;    });&#xA;})&#xA;&#xA;app.listen(5000, ()=> {&#xA;    console.log(&#x27;Listening&#x27;);&#xA;})&#xA;

    &#xA;

    This is maybe only cosmetics, but it makes me wondering.
    &#xA;Here is the terminal output :

    &#xA;

    [nodemon] starting `node server.js`&#xA;Listening&#xA;camera stream reloaded&#xA;stderr: ffmpeg version 4.3.2-0&#x2B;deb11u1ubuntu1 Copyright (c) 2000-2021 the FFmpeg developers&#xA;  built with gcc 10 (Ubuntu 10.2.1-20ubuntu1)&#xA;&#xA;  --shortend--&#xA;&#xA;&#xA;pid:  4206&#xA;stderr: frame=    8 fps=0.0 q=0.0 size=N/A time=00:00:00.46 bitrate=N/A speed=0.931x    &#xA;pid:  4206&#xA;stderr: frame=   21 fps= 21 q=26.0 size=N/A time=00:00:00.96 bitrate=N/A speed=0.95x    &#xA;pid:  4206&#xA;stderr: frame=   33 fps= 22 q=26.0 size=N/A time=00:00:01.49 bitrate=N/A speed=0.982x    &#xA;pid:  4206&#xA;stderr: frame=   46 fps= 23 q=26.0 size=N/A time=00:00:02.00 bitrate=N/A speed=0.989x    &#xA;pid:  4206&#xA;stderr: frame=   58 fps= 23 q=26.0 size=N/A time=00:00:02.49 bitrate=N/A speed=0.986x    &#xA;pid:  4206&#xA;

    &#xA;

    and so on...
    &#xA;
    &#xA;Any helpful information would be highly appreciated !
    &#xA;Many thanks in advance

    &#xA;