Recherche avancée

Médias (21)

Mot : - Tags -/Nine Inch Nails

Autres articles (69)

  • ANNEXE : Les plugins utilisés spécifiquement pour la ferme

    5 mars 2010, par

    Le site central/maître de la ferme a besoin d’utiliser plusieurs plugins supplémentaires vis à vis des canaux pour son bon fonctionnement. le plugin Gestion de la mutualisation ; le plugin inscription3 pour gérer les inscriptions et les demandes de création d’instance de mutualisation dès l’inscription des utilisateurs ; le plugin verifier qui fournit une API de vérification des champs (utilisé par inscription3) ; le plugin champs extras v2 nécessité par inscription3 (...)

  • L’espace de configuration de MediaSPIP

    29 novembre 2010, par

    L’espace de configuration de MediaSPIP est réservé aux administrateurs. Un lien de menu "administrer" est généralement affiché en haut de la page [1].
    Il permet de configurer finement votre site.
    La navigation de cet espace de configuration est divisé en trois parties : la configuration générale du site qui permet notamment de modifier : les informations principales concernant le site (...)

  • L’utiliser, en parler, le critiquer

    10 avril 2011

    La première attitude à adopter est d’en parler, soit directement avec les personnes impliquées dans son développement, soit autour de vous pour convaincre de nouvelles personnes à l’utiliser.
    Plus la communauté sera nombreuse et plus les évolutions seront rapides ...
    Une liste de discussion est disponible pour tout échange entre utilisateurs.

Sur d’autres sites (4439)

  • avutil/mips : Use MMI_{L, S}QC1 macro in {SAVE, RECOVER}_REG

    23 juillet 2021, par Jiaxun Yang
    avutil/mips : Use MMI_L, SQC1 macro in SAVE, RECOVER_REG
    

    SAVE,RECOVER_REG will be available for Loongson2 again,
    also comment about the magic.

    Signed-off-by : Jiaxun Yang <jiaxun.yang@flygoat.com>
    Reviewed-by : Shiyou Yin <yinshiyou-hf@loongson.cn>
    Signed-off-by : Michael Niedermayer <michael@niedermayer.cc>

    • [DH] libavutil/mips/mmiutils.h
  • Python : ani.save very slow. Any alternatives to create videos ?

    14 novembre 2023, par Czeskleba

    Im doing some simple diffusion calculations. I save 2 matrices to 2 datasets every so many steps (every 2s or so) to a single .h5 file. After that I then load the file in another script, create some figures (2 subplots etc., see/run code - i know could be prettier). Then I use matplotlib.animation to make the animation. In the code below, in the very last lines, I then run the ani.save command from matplotlib.

    &#xA;

    And that's where the problem is. The animation is created within 2 seconds, even for my longer animations (14.755 frames, done in under 2s at 8284 it/s) but after that, ani.save in line 144 takes forever (it didn't finish over night). It reserves/uses about 10gb of my RAM constantly but seemingly takes forever. If you run the code below be sure to set the frames_to_do (line 20) to something like 30 or 60 to see that it does in fact save an mp4 for shorter videos. You can set it higher to see how fast the time to save stuff increases to something unreasonable.

    &#xA;

    I've been fiddling this for 2 days now and I cant figure it out. I guess my question is : Is there any way to create the video in a reasonable time like this ? Or do I need something other than animation ?

    &#xA;

    You should be able to just run the code. Ill provide a diffusion_array.h5 with 140 frames so you dont have to create a dummy file, if I can figure out how to upload something like this safely. (The results are with dummy numbers for now, diffusion coefficients etc. are not right yet.)&#xA;I used dropbox. Not sure if thats allowed, if not I'll delete the link and uhh PM me or something ?

    &#xA;

    https://www.dropbox.com/scl/fi/fv9stfqkm4trmt3zwtvun/diffusion_array.h5?rlkey=2oxuegnlcxq0jt6ed77rbskyu&dl=0

    &#xA;

    Here is the code :

    &#xA;

    import h5py&#xA;import matplotlib.pyplot as plt&#xA;import matplotlib.colors as mcolors&#xA;from matplotlib.animation import FuncAnimation&#xA;from tqdm import tqdm&#xA;import numpy as np&#xA;&#xA;&#xA;# saving the .mp4 after tho takes forever&#xA;&#xA;# Create an empty figure and axis&#xA;fig, (ax1, ax2) = plt.subplots(1, 2, figsize=(16, 9), dpi=96)&#xA;&#xA;# Load all saved arrays into a list&#xA;file_name = &#x27;diffusion_array.h5&#x27;&#xA;loaded_u_arrays = []&#xA;loaded_h_arrays = []&#xA;frames_to_do = 14755  # for now like this, use # version once the slow mp4 convert is cleared up&#xA;&#xA;# with h5py.File(file_name, &#x27;r&#x27;) as hf:&#xA;#     for key in hf.keys():&#xA;#         if key.startswith(&#x27;u_snapshot_&#x27;):&#xA;#             loaded_u_arrays.append(hf[key][:])&#xA;#         elif key.startswith(&#x27;h_snapshot_&#x27;):&#xA;#             loaded_h_arrays.append(hf[key][:])&#xA;&#xA;with h5py.File(file_name, &#x27;r&#x27;) as hf:&#xA;    for i in range(frames_to_do):&#xA;        target_key1 = f&#x27;u_snapshot_{i:05d}&#x27;&#xA;        target_key2 = f&#x27;h_snapshot_{i:05d}&#x27;&#xA;        if target_key1 in hf:&#xA;            loaded_u_arrays.append(hf[target_key1][:])&#xA;        else:&#xA;            print(f&#x27;Dataset u for time step {i} not found in the file.&#x27;)&#xA;        if target_key2 in hf:&#xA;            loaded_h_arrays.append(hf[target_key2][:])&#xA;        else:&#xA;            print(f&#x27;Dataset h for time step {i} not found in the file.&#x27;)&#xA;&#xA;# Create "empty" imshow objects&#xA;# First one&#xA;norm1 = mcolors.Normalize(vmin=140, vmax=400)&#xA;cmap1 = plt.get_cmap(&#x27;hot&#x27;)&#xA;cmap1.set_under(&#x27;0.85&#x27;)&#xA;im1 = ax1.imshow(loaded_u_arrays[0], cmap=cmap1, norm=norm1)&#xA;ax1.set_title(&#x27;Diffusion Heatmap&#x27;)&#xA;ax1.set_xlabel(&#x27;X&#x27;)&#xA;ax1.set_ylabel(&#x27;Y&#x27;)&#xA;cbar_ax = fig.add_axes([0.05, 0.15, 0.03, 0.7])&#xA;cbar_ax.set_xlabel(&#x27;$T$ / K&#x27;, labelpad=20)&#xA;fig.colorbar(im1, cax=cbar_ax)&#xA;&#xA;&#xA;# Second one&#xA;ax2 = plt.subplot(1, 2, 2)&#xA;norm2 = mcolors.Normalize(vmin=-0.1, vmax=5)&#xA;cmap2 = plt.get_cmap(&#x27;viridis&#x27;)&#xA;cmap2.set_under(&#x27;0.85&#x27;)&#xA;im2 = ax2.imshow(loaded_h_arrays[0], cmap=cmap2, norm=norm2)&#xA;ax2.set_title(&#x27;Diffusion Hydrogen&#x27;)&#xA;ax2.set_xlabel(&#x27;X&#x27;)&#xA;ax2.set_ylabel(&#x27;Y&#x27;)&#xA;cbar_ax = fig.add_axes([0.9, 0.15, 0.03, 0.7])&#xA;cbar_ax.set_xlabel(&#x27;HD in ml/100g&#x27;, labelpad=20)&#xA;fig.colorbar(im2, cax=cbar_ax)&#xA;&#xA;# General&#xA;fig.subplots_adjust(right=0.85)&#xA;time_text = ax2.text(-15, 0.80, f&#x27;Time: {0} s&#x27;, transform=plt.gca().transAxes, color=&#x27;black&#x27;, fontsize=20)&#xA;&#xA;# Annotations&#xA;# Heat 1&#xA;marker_style = dict(marker=&#x27;o&#x27;, markersize=6, markerfacecolor=&#x27;black&#x27;, markeredgecolor=&#x27;black&#x27;)&#xA;ax1.scatter(*[10, 40], s=marker_style[&#x27;markersize&#x27;], c=marker_style[&#x27;markerfacecolor&#x27;],&#xA;            edgecolors=marker_style[&#x27;markeredgecolor&#x27;])&#xA;ann_heat1 = ax1.annotate(f&#x27;Temp: {loaded_u_arrays[0][40, 10]:.0f}&#x27;, xy=[10, 40], xycoords=&#x27;data&#x27;,&#xA;             xytext=([10, 40][0], [10, 40][1] &#x2B; 48), textcoords=&#x27;data&#x27;,&#xA;             arrowprops=dict(arrowstyle="->", connectionstyle="arc3,rad=0.3"), fontsize=12, color=&#x27;black&#x27;)&#xA;# Heat 2&#xA;ax1.scatter(*[140, 85], s=marker_style[&#x27;markersize&#x27;], c=marker_style[&#x27;markerfacecolor&#x27;],&#xA;            edgecolors=marker_style[&#x27;markeredgecolor&#x27;])&#xA;ann_heat2 = ax1.annotate(f&#x27;Temp: {loaded_u_arrays[0][85, 140]:.0f}&#x27;, xy=[140, 85], xycoords=&#x27;data&#x27;,&#xA;             xytext=([140, 85][0] &#x2B; 55, [140, 85][1] &#x2B; 3), textcoords=&#x27;data&#x27;,&#xA;             arrowprops=dict(arrowstyle="->", connectionstyle="arc3,rad=0.3"), fontsize=12, color=&#x27;black&#x27;)&#xA;&#xA;# Diffusion 1&#xA;marker_style = dict(marker=&#x27;o&#x27;, markersize=6, markerfacecolor=&#x27;black&#x27;, markeredgecolor=&#x27;black&#x27;)&#xA;ax2.scatter(*[10, 40], s=marker_style[&#x27;markersize&#x27;], c=marker_style[&#x27;markerfacecolor&#x27;],&#xA;            edgecolors=marker_style[&#x27;markeredgecolor&#x27;])&#xA;ann_diff1 = ax2.annotate(f&#x27;HD: {loaded_h_arrays[0][40, 10]:.0f}&#x27;, xy=[10, 40], xycoords=&#x27;data&#x27;,&#xA;             xytext=([10, 40][0], [10, 40][1] &#x2B; 48), textcoords=&#x27;data&#x27;,&#xA;             arrowprops=dict(arrowstyle="->", connectionstyle="arc3,rad=0.3"), fontsize=12, color=&#x27;black&#x27;)&#xA;# Diffusion 2&#xA;ax2.scatter(*[140, 85], s=marker_style[&#x27;markersize&#x27;], c=marker_style[&#x27;markerfacecolor&#x27;],&#xA;            edgecolors=marker_style[&#x27;markeredgecolor&#x27;])&#xA;ann_diff2 = ax2.annotate(f&#x27;HD: {loaded_h_arrays[0][85, 140]:.0f}&#x27;, xy=[140, 85], xycoords=&#x27;data&#x27;,&#xA;             xytext=([140, 85][0] &#x2B; 55, [140, 85][1] &#x2B; 3), textcoords=&#x27;data&#x27;,&#xA;             arrowprops=dict(arrowstyle="->", connectionstyle="arc3,rad=0.3"), fontsize=12, color=&#x27;black&#x27;)&#xA;&#xA;&#xA;# Function to update the animation&#xA;def update(frame, *args):&#xA;    loaded_u_array, loaded_h_array = args&#xA;&#xA;    s_per_frame = 2  # during weld/cooling you save a state every 2s&#xA;    frames_to_room_temp = 7803  # that means this many frames need to be animated&#xA;    dt_big = 87  # during "just diffusion" you save every 10 frame but 87s pass in those&#xA;&#xA;    # Update the time step shown&#xA;    if frame &lt;= frames_to_room_temp:&#xA;        im1.set_data(loaded_u_array[frame])&#xA;        im2.set_data(loaded_h_array[frame])&#xA;        time_text.set_text(f&#x27;Time: {frame * s_per_frame} s&#x27;)&#xA;&#xA;    else:&#xA;        im1.set_data(loaded_u_array[frame])&#xA;        im2.set_data(loaded_h_array[frame])&#xA;        calc_time = int(((2 * frames_to_room_temp) &#x2B; (frame - frames_to_room_temp) * 87) / 3600)&#xA;        time_text.set_text(f&#x27;Time: {calc_time} s&#x27;)&#xA;&#xA;    # Annotate some points&#xA;    ann_heat1.set_text(f&#x27;Temp: {loaded_u_arrays[frame][40, 10]:.0f}&#x27;)&#xA;    ann_heat2.set_text(f&#x27;Temp: {loaded_u_arrays[frame][85, 140]:.0f}&#x27;)&#xA;    ann_diff1.set_text(f&#x27;HD: {loaded_h_arrays[frame][40, 10]:.0f}&#x27;)&#xA;    ann_diff2.set_text(f&#x27;HD: {loaded_h_arrays[frame][85, 140]:.0f}&#x27;)&#xA;&#xA;    return im1, im2  # Return the updated artists&#xA;&#xA;&#xA;# Create the animation without displaying it&#xA;ani = FuncAnimation(fig, update, frames=frames_to_do, repeat=False, blit=True, interval=1,&#xA;                    fargs=(loaded_u_arrays, loaded_h_arrays))  # frames=len(loaded_u_arrays)&#xA;&#xA;# Create the progress bar with tqdm&#xA;with tqdm(total=frames_to_do, desc=&#x27;Creating Animation&#x27;) as pbar:  # total=len(loaded_u_arrays)&#xA;    for i in range(frames_to_do):  # for i in range(len(loaded_u_arrays)):&#xA;        update(i, loaded_u_arrays, loaded_h_arrays)  # Manually update the frame with both datasets&#xA;        pbar.update(1)  # Update the progress bar&#xA;&#xA;# Save the animation as a video file (e.g., MP4)&#xA;print("Converting to .mp4 now. This may take some time. This is normal, wait for Python to finish this process.")&#xA;ani.save(&#x27;diffusion_animation.mp4&#x27;, writer=&#x27;ffmpeg&#x27;, dpi=96, fps=60)&#xA;&#xA;# Close the figure to prevent it from being displayed&#xA;plt.close(fig)&#xA;&#xA;

    &#xA;

  • ffmpeg save mp3 file from available wss stream

    11 juillet 2021, par phoenixAZ

    In a hello world node.js app I am succeeding in getting a feed from twilio conference and sending to the google speech to text. Concurrently I want to control recording to mp3 of the available audio stream (programmatically call start and stop). The was is subscribed to audio stream but I don't know how to attach ffmpeg to the local stream. I have tried :

    &#xA;

                // ffmpeg(&#x27;rtsp://host:port/path/to/stream&#x27;)&#xA;            //experimenting telling it to use the local stream&#xA;            //&#xA;            //ffmpeg(wss.addListener)  //invlaid input error&#xA;            //ffmpeg(wss.stream) //thsi hits the console error below&#xA;            ffmpeg(wss.stream)&#xA;            .noVideo()&#xA;            .audioChannels(1)&#xA;            .audioBitrate(128)&#xA;            .duration(&#x27;1:00&#x27;)&#xA;            .on(&#x27;end&#x27;, function () { console.log(&#x27;saved mp3&#x27;); })&#xA;            .on(&#x27;error&#x27;, function (err) { console.log(&#x27;error mp3&#x27;); })&#xA;            .save(&#x27;/path/to/output.mp3&#x27;);&#xA;

    &#xA;

    Any suggestions are welcomed. I am in a node.js project

    &#xA;