Recherche avancée

Médias (91)

Autres articles (41)

  • Les autorisations surchargées par les plugins

    27 avril 2010, par

    Mediaspip core
    autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

Sur d’autres sites (6060)

  • Combining multiple image files into a video while using filter_complex to apply a watermark

    14 décembre 2017, par Geuis

    I’m trying to combine two ffmpeg operations into a single one.

    Currently I have two sets of ffmpeg commands that first generate a video from existing images, then runs that video through ffmpeg again to apply a watermark.

    I’d like to see if its possible to combine these into a single operation.

    # Create the source video
    ffmpeg -y \
    -framerate 1/1 \
    -i layer-%d.png \
    -r 30 -vcodec libx264 -preset ultrafast -crf 23 -pix_fmt yuv420p \
    output.mp4

    # Apply the watermark and render the final output
    ffmpeg -y \
    -i output.mp4 \
    -i logo.png \
    -filter_complex "[1:v][0:v]scale2ref=40:40[a][b];[b][a]overlay=(80):(main_h-200-80)" \
    final.mp4
  • How to extract audio from a video in Flutter ?

    14 janvier, par Mohammed Bekele

    I have an image picker in Flutter to get the video from the device, and then I created a function to extract the audio using ffmpeg_kit_flutter package.

    


     Future<void> _convertVideoToAudio() async {&#xA;    if (_pickedVideo != null) {&#xA;      bool? permissionGranted = await _requestStoragePermission();&#xA;      if (permissionGranted != true) {&#xA;        print("Storage permission denied.");&#xA;        return;&#xA;      }&#xA;&#xA;      String videoPath = _pickedVideo!.path;&#xA;      _outputPath = await getOutputFilePath(); // Get platform-specific path&#xA;&#xA;      try {&#xA;        // Ensure the output directory exists&#xA;        await Directory(path.dirname(_outputPath)).create(recursive: true);&#xA;&#xA;        await FFmpegKit.execute(&#xA;            "-i $videoPath -vn -c:a libmp3lame -q:a 2 $_outputPath"); // FFmpeg command&#xA;        print("Video converted to audio successfully!");&#xA;        _showSuccessDialog(); // Display success dialog&#xA;&#xA;        try {&#xA;          final String fileName = path.basename(_outputPath);&#xA;          final transcription =&#xA;              await _sendAudioForTranscription(_outputPath, fileName);&#xA;&#xA;          if (transcription != null) {&#xA;            setState(() {&#xA;              _transcription = transcription;&#xA;            });&#xA;          } else {&#xA;            setState(() {&#xA;              _transcription = "Transcription failed";&#xA;            });&#xA;          }&#xA;        } catch (e) {&#xA;          print(&#x27;Error in transcription request: $e&#x27;);&#xA;          setState(() {&#xA;            _transcription = "Network request failed";&#xA;          });&#xA;        }&#xA;      } catch (e) {&#xA;        print("Error converting video: $e");&#xA;        _showErrorDialog(); // Display error dialog&#xA;      } finally {&#xA;        setState(() {&#xA;          _pickedVideo = null; // Clear selected video&#xA;        });&#xA;      }&#xA;    } else {&#xA;      print("Please pick a video first.");&#xA;    }&#xA;  }&#xA;</void>

    &#xA;

    and for getting the path I have this function

    &#xA;

     Future<string> getOutputFilePath() async {&#xA;    final directory = await getApplicationDocumentsDirectory();&#xA;    final downloadsDirectory = Directory(&#x27;${directory.path}/downloads&#x27;);&#xA;    if (!(await downloadsDirectory.exists())) {&#xA;      await downloadsDirectory.create(recursive: true);&#xA;    }&#xA;    final String fileName = path&#xA;        .basename(_pickedVideo!.path)&#xA;        .replaceAll(&#x27;.mp4&#x27;, &#x27;.mp3&#x27;); // Replace extension&#xA;    final filePath = &#x27;${downloadsDirectory.path}/$fileName&#x27;;&#xA;    return filePath;&#xA;  }&#xA;</string>

    &#xA;

    but this is not working somehow. Because after I get the audio I'm uploading it to a server with http, then it displays that there is no path where the audio supposed to be.

    &#xA;

  • ffmpeg complex filter - multiple crops on black background

    31 octobre 2017, par Kevin O'Hara

    We are attempting to process a video file by cropping it into several pieces and arranging it on a black background which is exactly 1920x1080. The following command runs but it never completes and we have to kill the process.

    Is there something wrong with how we’re trying to do this ?

    ffmpeg -i in.mov -y -filter_complex "\
    color=s=1920x1080:c=black[bg];\
    [0:v]crop=w=1920:h=ih:x=0:y=0[crop1];\
    [0:v]crop=w=iw-1920:h=ih:x=1920:y=0[crop2];\
    [bg][crop1]overlay=x=0:y=0[out1];\
    [out1][crop2]overlay=x=0:y=h[final]" \
    -map [final] out.mov