Bonjour,
Régulièrement, nous sommes amenés à faire des tutoriels. De plus en plus, le public préfère des formats vidéos plutôt que des explications textuelles agrémentées de captures d’écran. C’est effectivement sympa mais quand il y a une modification à apporter c’est toute la vidéo qu’il faut refaire et cela prend beaucoup de temps et d’énergie. La version textuelle est plus facile à mettre à jour. Ne pourrait-on pas envisager sur Scenari un mode mixte où l’on décrite le tutoriel sous forme de texte, d’images et autres média et le générateur produit une vidéo automatiquement à partir de ces informations ? On voit actuellement que les IA génératives sont capables de faire des vidéos acceptables. En cas de modification, on pourrait mettre à jour les items textuels, graphiques… et relancer la génération. Le générateur produirait alors une nouvelle vidéo. Nous aurions un gain de temps considérable.
On pourrait créer plusieurs formats de tutoriels web, pdf, vidéo et satisfaire chacun en fonction de ses préférences.
Qu’en pensez-vous ?
S’agirait-il d’un nouveau modèle documentaire ou d’un nouvel item d’un modèle comme Dokiel ?
J’aurais plaisir d’échanger avec la communauté sur cette possibilité et peut-être que demain on pourrait pousser cette idée sur une place d’évolution.
Salut @Colin
Sujet intéressant.
Je verrais plutôt un générateur nouveau qui ferait une sortie xml (ou autre format) qu’une plateforme de génération de vidéo pourrait prendre en entrée. Tu sais si ce genre de plateforme existe ?
En même temps, vu la vitesse où évoluent les IA génératives, il sera probablement bientôt possible (si ce n’est pas déjà le cas) de fournir une génération d’un tutoriel Dokiel à une IA, qui fera la vidéo toute seule.
Bonjour à tous,
Sujet intéressant s’il en est !
Le souci du SaaS est qu’il y a perte de la propriété physique, ce qui pose certains problèmes en fonction de l’environnement (et de la confidentialité des données).
Il y a le célèbre PPT qui permet une génération des diapositives en MP4 ; Wink qui séquence des images pour en faire un MP4 ; <Zut j’ai oublié le nom> qui permet de faire de la capture d’écran en vidéo (pourtant je l’utilise régulièrement pour les captures pour ma chaîne FormaLabo sur Youtube - OK je fais honteusement de la pub -) et bien entendu des ressources H5P qui permettent de faire une vidéo interactive…
Bien entendu il y a des ressources sous Linux (open source qui plus est) qui devraient aider
En tout cas l’idée me semble intéressante à creuser…
Effectivement, le monde des IA génératives est en effervescence
En revanche, vu la diversité, l’hétérogénéité et le manque de visibilité sur la pérennité des services proposés d’une part et vu l’empreinte écologique de ces services (qui est actuellement démentielle…) d’autre part, il me semble certain qu’il n’est pas opportun de se précipiter sur une intégration dans les modèles Scenari.
En revanche, on avance (doucement mais sûrement) sur le futur remplaçant de SCENARIbatch qui prendra la forme de lib et api Python pour Scenari. Il me semble plus probable que l’intégration de ce genre d’outils passe par des scripts externes fait ici ou là avec un fournisseur de service d’IA générative. Ces intégratons auront tout le loisir de récupérer des contenus, les modifier, les réuploader puis générer et diffuser via des appels à l’API…