Recherche avancée

Médias (1)

Mot : - Tags -/net art

Autres articles (67)

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 est la première version de MediaSPIP stable.
    Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • MediaSPIP version 0.1 Beta

    16 avril 2011, par

    MediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Gestion générale des documents

    13 mai 2011, par

    MédiaSPIP ne modifie jamais le document original mis en ligne.
    Pour chaque document mis en ligne il effectue deux opérations successives : la création d’une version supplémentaire qui peut être facilement consultée en ligne tout en laissant l’original téléchargeable dans le cas où le document original ne peut être lu dans un navigateur Internet ; la récupération des métadonnées du document original pour illustrer textuellement le fichier ;
    Les tableaux ci-dessous expliquent ce que peut faire MédiaSPIP (...)

Sur d’autres sites (13094)

  • dnn/native : add native support for 'mul'

    11 avril 2020, par Guo, Yejun
    dnn/native : add native support for 'mul'
    

    it can be tested with model file generated from above python script :

    import tensorflow as tf
    import numpy as np
    import imageio

    in_img = imageio.imread('input.jpg')
    in_img = in_img.astype(np.float32)/255.0
    in_data = in_img[np.newaxis, :]

    x = tf.placeholder(tf.float32, shape=[1, None, None, 3], name='dnn_in')
    z1 = 0.5 + 0.3 * x
    z2 = z1 * 4
    z3 = z2 - x - 2.0
    y = tf.identity(z3, name='dnn_out')

    sess=tf.Session()
    sess.run(tf.global_variables_initializer())

    graph_def = tf.graph_util.convert_variables_to_constants(sess, sess.graph_def, ['dnn_out'])
    tf.train.write_graph(graph_def, '.', 'image_process.pb', as_text=False)

    print("image_process.pb generated, please use \
    path_to_ffmpeg/tools/python/convert.py to generate image_process.model\n")

    output = sess.run(y, feed_dict=x : in_data)
    imageio.imsave("out.jpg", np.squeeze(output))

    Signed-off-by : Guo, Yejun <yejun.guo@intel.com>

    • [DH] libavfilter/dnn/dnn_backend_native_layer_mathbinary.c
    • [DH] libavfilter/dnn/dnn_backend_native_layer_mathbinary.h
    • [DH] tools/python/convert_from_tensorflow.py
    • [DH] tools/python/convert_header.py
  • Efficient way to stream a sequence of frames

    3 juin 2020, par DoriHp 0

    I'm facing with an issue : I implemented a device to detect stranger for my home, which includes inputs from some IP camera and use a tensorflow model to process frame got from them.

    &#xA;&#xA;

    Now I want to build a dashboard (use Flask or Django - python framework as backend) to streaming the processed frames I got from the system, and if possible, do some transform on them (such as stack multi frames into one, etc), and run the server so I can watch it from distances. Currently, I'm sending frame by frame as independent images but it costs so much bandwidth. I read how h264 encoder work and felt very exicted about it. Now, the question is, how can I use h264 or any encoder like it transfer my data and reduce the bandwidth ?

    &#xA;

  • Sequelize FFMPEG get video after upload on NodeJs

    30 juin 2020, par jjplack

    Hello After upload a video to db using sequelize, i would like to edit it using FFMPEG

    &#xA;

    So to get the video is just point the model attribute to FFMPEG ?

    &#xA;

    Because using the file path is not editing the video.

    &#xA;

    For exemple :

    &#xA;

    fastify.route({&#xA;    method: "POST",&#xA;    url: "/posts",&#xA;    preHandler: upload.single("video"),&#xA;&#xA;    handler: async function(request, reply) {&#xA;      const { Post } = fastify.sequelize;&#xA;&#xA;      const videoPath = "./public/uploads/";&#xA;&#xA; &#xA;&#xA;     &#xA;&#xA;      const post = await Post.create({&#xA;        video: request.file.path,&#xA;        title: request.body.title,&#xA;   &#xA;      });&#xA;      reply.code(201).send(post);&#xA;&#xA;&#xA; &#xA;&#xA;try {&#xA;   const process = new ffmpeg(post.video);&#xA;  process.then(function (video) {&#xA;    video.addCommand(&#x27;-ss&#x27;, &#x27;00:01:00&#x27;)&#xA;    video.addCommand(&#x27;-vframes&#x27;, &#x27;1&#x27;)&#xA;    video.save(videoPath, function (error, file) {&#xA;        if (!error)&#xA;          console.log(&#x27;Video file: &#x27; &#x2B; file);&#xA;      });&#xA;  }, function (err) {&#xA;    console.log(&#x27;Error: &#x27; &#x2B; err);&#xA;  });&#xA;} catch (e) {&#xA;&#xA;  console.log(e.msg);&#xA;&#xA;}&#xA;      &#xA;    }&#xA;  });&#xA;

    &#xA;