Recherche avancée

Médias (91)

Autres articles (38)

  • Websites made ​​with MediaSPIP

    2 mai 2011, par

    This page lists some websites based on MediaSPIP.

  • Creating farms of unique websites

    13 avril 2011, par

    MediaSPIP platforms can be installed as a farm, with a single "core" hosted on a dedicated server and used by multiple websites.
    This allows (among other things) : implementation costs to be shared between several different projects / individuals rapid deployment of multiple unique sites creation of groups of like-minded sites, making it possible to browse media in a more controlled and selective environment than the major "open" (...)

  • Other interesting software

    13 avril 2011, par

    We don’t claim to be the only ones doing what we do ... and especially not to assert claims to be the best either ... What we do, we just try to do it well and getting better ...
    The following list represents softwares that tend to be more or less as MediaSPIP or that MediaSPIP tries more or less to do the same, whatever ...
    We don’t know them, we didn’t try them, but you can take a peek.
    Videopress
    Website : http://videopress.com/
    License : GNU/GPL v2
    Source code : (...)

Sur d’autres sites (5743)

  • OSError : [WinError 126] Não foi possível encontrar o módulo especificado. Error loading [closed]

    27 août 2024, par Felipes

    Informações relevantes

    


    **
SO : Windowns 11
Dependencias : torch —extra-index-url https://download.pytorch.org/whl/cpu ;
openai-whisper ;
ffmpeg-python
Microsoft Visual C++ Redistributable

    


    Tudo isso dentro de um ambiente virtual
**

    


    Então... eu to com o seguinte codigo em python :

    


    import whisper
import os

# Carregar o modelo
model = whisper.load_model("base")  # Pode usar 'small', 'medium', 'large' conforme a necessidade

# Carregar o áudio
audio_path = "audio.mp3"  # Substitua pelo caminho do arquivo de áudio extraído
result = model.transcribe(audio_path)

# Obter o texto da transcrição
transcription_text = result['text']

# Salvar a transcrição em um arquivo .txt
with open("transcription.txt", "w") as file:
    file.write(transcription_text)

print("Transcrição salva em 'transcription.txt'")


    


    Basicamente é pegar um arquivo .mp3 e salvar a transcrisão no em arquivo txt
mas ao rodar o codigo eu recebo o seguinte erro :

    


    Traceback (most recent call last):&#xA;  File "C:\Users\Felipe Bezerra\Documents\ytDownload\transcrisao.py", line 2, in <module>&#xA;    import whisper&#xA;  File "C:\Users\Felipe Bezerra\Documents\ytDownload\venv\Lib\site-packages\whisper\__init__.py", line 8, in <module>&#xA;    import torch&#xA;  File "C:\Users\Felipe Bezerra\Documents\ytDownload\venv\Lib\site-packages\torch\__init__.py", line 148, in <module>&#xA;    raise err&#xA;OSError: [WinError 126] N&#xE3;o foi poss&#xED;vel encontrar o m&#xF3;dulo especificado. Error loading "C:\Users\Felipe Bezerra\Documents\ytDownload\venv\Lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.&#xA;</module></module></module>

    &#xA;

    É como se as dependências não estivecem instaladas, já verifiquei a variavél de ambiente, criei outro ambiente virtual, e sempre caio nesse mesmo erro.

    &#xA;

    PS : o msm codigo rodou perfeitamente no Debian 12

    &#xA;

    Verifiquei o ambiente virtual, reistalei tudo

    &#xA;

  • Evolution #3720 (Nouveau) : Refaire un éditeur à base de CodeMirror + ajouts

    27 février 2016, par RastaPopoulos ♥

    Cahier des charges :
    - Dans l’éditeur lui-même, avoir une vue plus sémantique de ce que l’on tape (WYSIWY Mean !)
    - Pouvoir mettre en plein écran
    - Pouvoir prévisualiser le vrai rendu HTML final (avec les images, modèles, etc)
    - Pouvoir éditer côte à côte avec la prévisu
    - Être pérenne et que le noyau puisse reconnaitre plusieurs syntaxes

    Des gens ont fait ça pour Markdown mais malheureusement QUE pour Markdown. Mais en fait quasiment tout ce qui est important est géré en sous-main par CodeMirror !
    https://simplemde.com/

    Leur éditeur est en fait relativement simple :
    => c’est CodeMirror à 80%
    + ils ajoutent une CSS qui ne change pas juste la couleur pour la syntaxe, mais aussi la taille, pour les titres, gras, italique, etc
    + ils ajoutent une barre de boutons
    + ils ajoutent un système de prévisu (seul ou côte à côte)

    CodeMirror est entre l’autre l’éditeur de code de Chrome et Firefox, et de milles autres choses. Il est à priori (très) pérenne, modulaire, et sait gérer plusieurs syntaxes en les déclarant dans un module JS (un "mode"). En plus de la reconnaissance de syntaxe, il gère déjà plein de plugins comme raccourcis claviers, continuer une liste quand on fait Entrée, etc.

    Pour SPIP je propose cela :
    - faire un mode CodeMirror qui gère uniquement les modèles SPIP, et peut-être les liens (ce qui permettrait de l’utiliser avec d’autres syntaxes que SPIP, notamment dans Markdown)
    - faire un mode CodeMirror pour tous les trucs SPIP autre que modèles
    - faire une CSS qui rend plus sémantique la saisie SPIP (agrandir les intertitres, etc)
    - récupérer la CSS pour la saisie Markdown de SimpleMDE
    - trouver une barre de boutons se basant déjà sur CodeMirror : les boutons ne feraient qu’appeler des comportements CodeMirror
    - re-implémenter notre système de prévisu + de fullscreen et côte à côte dans cette nouvelle barre (= comme SimpleMDE !), sachant que nous la prévisu ça appelle un truc serveur, alors que SimpleMDE il semble que c’est tout en JS client.

    Je pense que le plus gros est de faire les deux modes de syntaxes SPIP pour CodeMirror. Mais une personne a fait un projet très cool qui apparemment fonctionne déjà : une déclaration de grammaire en JSON, beaucoup mieux que la programmation JS des modes de CodeMirror :
    https://github.com/foo123/codemirror-grammar
    Et ça marche !

    Pour le reste, on doit pouvoir s’inspirer de SimpleMDE mais en généralisant :
    1) Ce serait bien d’avoir une barre de bouton pour SPIP et pour Markdown en même temps (en fait avoir deux déclarations, suivant le mode voulu)
    2) Avoir notre prévisu-serveur.

    Comme on le remarque, je propose deux choses qui permettent de garder Markdown sous la main :
    1) séparer la déclaration des modèles (et peut-être des liens)
    2) avoir deux déclarations de boutons

    Cela permettra d’office, avec le même éditeur, la même base commune, de savoir gérer à la fois SPIP et Markdown. Cela me semble important à prendre en compte dès le début.

  • ffmpeg video replay with time-sync needs actual recording times

    16 juillet 2018, par navySV

    I am attempting to use ffmpeg to replay multiple video files time-synched, but the zero-based video start time is preventing this.

    I have ffmpeg commands to successfully capture a Microsoft Windows 7 desktop into a video file and replay it with a timestamp value (see below), but the internal timestamp is always starting near zero. How can ffmpeg display the actual time when the video was recorded (and not the time since the start of the video i.e. zero) ?

    For example, if the video started to be recorded at 10:47 am, the ffplay command should display a timestamp similar to "10:47:31" during playback (and not "00:00:31").

    video-capture command :

    ffmpeg -f gdigrab -offset_x 0 -offset_y 0 -video_size 1920x1080 -i desktop -c:v libx264 -preset medium -f mpegts -framerate 24 -y fileA.ts

    playback command :

    ffplay -vf "drawtext=fontfile=/windows/fonts/arial.ttf: text='%{pts\:gmtime\:0\:%H\\\:%M\\\:%S}':box=1:x=(w-tw)/2:y=h-(2*lh)" fileA.ts

    parameters I’ve tried unsuccessfully in the previous commands (including moving these around into different places in the commands) :

    -timestamp now

    -vsync 0

    -copyts

    (every attempt to use -copyts generates errors about "non-strictly-monotonic PTS" or "Non-monotonous DTS in output stream" no matter where I put this parameter)

    -filter_complex "[0:v] setpts=PTS"

    The ultimate goal is to capture four video files (recorded on four different computers and probably having different start times), and then to replay all four in time-sync (which is not possible using only the zero-based start times).

    For example, I’ve been successful at replaying four video files in a 2x2 arrangement, using the following command (I added the -ss parameter to demonstrate I can move the start time of the replay). Unfortunately, they always time-sync to the zero-based first video frame (so they all play from the beginning of the video file). I need the replay to be time-syncing to the actual recorded time for each video. If the four videos were captured starting at times 10:47:00, 10:47:51, 10:48:44, and 10:49:01, I want to be able to replay all of them so that all are displaying the same timestep at the same time (so if one video were displaying 10:48:33, all of the videos would be displaying the same time or a blank screen if that time was unavailable) .

    ffmpeg -ss 00:00:30 -i fileA.ts -i fileB.ts -i fileC.ts -i fileD.ts -filter_complex "[0:v][1:v]hstack[top];[2:v][3:v]hstack[bottom];[top][bottom]vstack[v]" -map "[v]" -timestamp now -f mpegts - | ./ffplay - -x 1920 -y 1080

    Ideally, I would also like to be able to use a real time value (something like "ffplay -ss 10:48:00 ...") to start the video replay at a different position, but worst-case I can write a script to do the needed conversion of the time value.

    My ffmpeg version is a Windows 7 64-bit static build "N-90810-g153e920892" on 2018Apr22 (downloaded from https://www.ffmpeg.org/download.html)