Depuis la fin de l’année 2012, et le passage à la version 10.0.5 de FCPX, je rencontre d’importants problèmes de lenteur d’export des mes montages vidéo. Je cherche régulièrement des réponses sur Internet et je pratique de nombreux tests. Si j’ai pensé tout un temps que le problème était uniquement lié à ma génération d’iMac sous OSX 10.6.8 (Core i7, 8go RAM, ATI 6770M 512mo). Après des tests plus approfondi sur mon Mac Book Pro de génération suivante (OSX 10.7.5, Core i7, 8go, ATI 6770M 1go), je me rends compte que mon soucis n’est pas uniquement lié à ma machine.
Pour résumer depuis le passage à la version 10.0.5 de FCPX, le temps de rendu des mes vidéos montée en HD prenait plus de 8 heures pour des montages de moins de 10 minutes… Parfois montant jusqu’à 72 heures lorsque j’appliquais mon plugin de correction d’image RedGiant Magic Bullet Looks. Au par avant les temps de rendu était beaucoup plus correcte, jamais plus de 2 heures. Les tests étaient claire, les processeurs du Core i7 étaient peu sollicité et les accès disques anormalement faible. Il semble effectivement que les nouvelles versions de FCPX privilégient plus le calcul du rendu sur le processeur GPU (carte graphique) que sur celui du CPU, mais malgré cela, j’ai eu beaucoup de difficulté à collationner les témoignages d’autres personnes rencontrant un problème similaire.
Hier pourtant, j’ai pu lire de nouvelles données qui ont pu sensiblement me faire avancer. Plutôt que de choisir l’option de sortie « Dispositifs Apple 720p », j’ai choisi l’option « Render Master ». Une option apparue entre temps dans ce menu qui exporte un fichier imposant (1go/minutes) mais qui se montre beaucoup plus rapide. Mon projet en cours de 15 minutes avec effets Looks en était à 40% au bout de 24h par la méthode utilisée jusqu’ici, il s’est exporté en 8 heures.
Et oui, le temps passe. La Nintendo Wii a déjà été remplacée par la nouvelle génération cet hiver, et les concurrents Sony et Microsoft se préparent à la contre-attaque ! Après déjà quelques fuites à son sujet, la Playstation 4 a eu droit à sa petite conférence, dit-on, histoire de rendre les fans hystériques jusqu’à sa sortie prévue en principe pour la fin de cette année 2013.
Et moi franchement, je ne vois rien de bien réjouissant à la chose !
Plus puissante que la PS3, c’est bien certain, cette nouvelle console proposera une qualité d’image et d’animation de nouvelle génération. Elle devrait mélanger les « nouvelles manières de jouer » comme l’a fait la WiiU, puisque la nouvelle manette de la PS4 reprendra le système du Playstation Move (l’équivalent de la Wiimote de Nintendo). Elle disposera d’un partie pavé tactile, pour faire comme les jeux sur Smartphone et aura même un bouton « share » pour partager tout ce que l’on fait sur les réseaux sociaux… Waah, c’est classe quand même !!! Ceux qui auront en déjà débourser les probables 400€ (au minimum) pour la nouvelle console de Sony pourront s’ajouter 200€ pour une PSP Vita, qui devrait pouvoir s’utiliser comme accessoire équivalent au GamePad de la WiiU.
La nouvelle Playstation reposera sur une architecture X86, similaire à un PC, ce qui facilitera la conception de jeu… et la rendra donc peu différente d’un PC de Gamer à mon sens.
Bref, jusque-là, j’ai juste un sentiment de Bof… qui n’attendrait juste qu’à être émoustillé par quelques vidéos et annonces de super mega jeux exclusif qui donnent envie ! Si ce n’est qu’à l’heure actuelle je viens de me resservir une louche de Resident Evil et Silent Hill, que j’attends la sortie imminente de The Last of Us, Bioshock ou encore Tomb Raider, le tout dédié à ma PS3.
Et puis, il y a les choses qui fâchent !
Parmi les nombreuses annonces et indiscrétions autour la nouvelle PS4, j’ai de quoi bondir de rage !
Tout d’abord, la volonté de Sony (et d’autres acteurs du jeu vidéo) de briser le marché de l’occasion. Ce n’est pas 100% officiel (et cela semble être même depuis lors démenti), mais la PS4 a comme objectif de mettre un système de protection des jeux pour qu’une fois ceux-ci utilisé sur un compte/console, il ne puisse être utilisé chez un autre joueur. Exit donc les échanges et les sites de revente en 2° main. Pas spécialement un bon plan pourtant, car je n’aurais pu m’acheter mieux que 1/4 des titres passés dans ma PS3. C’est aussi une perte de visibilité pour les petits éditeurs, puisque les joueurs se concentreront sur « des valeurs sures »… (si, si, Fifa 2019 par exemple !)
Autre volonté, réduire, voire supprimer le nombre de démos jouables. La raison étant qu’une fois testé la démo, bons nombres de futurs joueurs choisissent de ne pas acheter le jeu, l’effet d’attente inexorable étant assouvi ! Je leur accorde ce point, je me suffis bien souvent d’une démo pour découvrir un jeu, parfois tout en espérant que son prix deviennent un peu plus abordables, ce qui est de moins en moins fréquent. (Je confirme, j’attends toujours une revue du prix de Limbo sous les 10€ !)
Du dématérialisé et du cloud gaming… on a acheté du vent ! Et oui, Sony nous annonce donc que les contenus achetés sur le Playstation Store de la PS3 ne seront pas compatibles et transférables sur la PS4. C’est grandiose quand même ! Il en va de même pour les jeux sur support physique.
Il sera possible de retrouver ces titres après avoir sorti à nouveau ces deniers via du Cloud Gaming, une technologie qui doit encore montrer ses preuves et qui permettrait de contrôler via Internet une Playstation 3 virtuelle…
Enfin pour couronner le tout, Sony annonce également que sa PS4 ne pourra lire les CD Audio. Ah bon ? C’est vrai que rendre un lecteur de BluRay compatible avec CD Audio aurait couté vraiment très cher, d’autant que cette technologie avait été mise au point par Philips et Sony. La raison serait donc plutôt à chercher dans la volonté de Sony de mettre un peu plus en avant son service de vente de musique en ligne au départ de sa nouvelle console de salon…. Allé, faisons la mauvaise langue… et quid des DVD ?
Alors, vous m’excuserez mais j’ai un peu de mal à être positivement hystérique à l’annonce de cette future PS4. J’aurais même tendance à espérer que ma Playstation 3 tienne encore bon un moment, malgré ces bientôt 5 années ! Mais Sony aura son mot à dire dans l’histoire. D’un coup de malice, ils pourront rendre inutilisable bons nombres de contenus achetés légalement sur cette dernière s’il venait à supprimer des serveurs Playstation Store par exemple.
Pas certains que dans 10 ans, une PS3 aura un intérêt autre que décoratif, là où nos bonnes vielles NES et SNES font toujours des merveilles !
J’ai 35 ans, je deviens vieux, ça doit être cela le problème !
J’initie depuis quelques semaines l’idée de regrouper sur Scoop.it une série d’annonce autour de ce que j’appelle l’e-Media. C’est à dire un mélange entre l’image (Photo ou Vidéo) et son intégration sur le Web. En parallèle je vous partagerais ici une petite chronique de temps à autres de ce que j’y ai repéré d’intéressant.
Le Test du Nikon D800
Tout d’abord l’actu la plus importantes tournent autour des premiers test du Nikon D800. Sans vraiment prendre le relais naturel du mythique D700, ce nouveau boitier se singularise avec un capteur montant jusqu’à 36MPx, de quoi chatouiller les moyens formats ?
Avec un capteur à 36,3 Mpx, le Nikon D800 pourrait être considéré comme un véritable concurrent des dos numériques qui sont à la fois plus chers et moins polyvalents : les moyens formats sont volumineux, lourds, lents et ne font pas (encore) de vidéo. (Le D800, tueur de moyen format ?, Focus Numérique)
36,3 Mpx : c’est la définition record que propose Nikon avec le reflex 24×36 D800. Le boîtier offre en plus un viseur 100%, un autofocus 51 points avec suivi 3D, un mode vidéo 1080p. (Test du Nikon D800, Focus Numérique)
Google nous propose quelques nouveautés. D’une part une option permettant de stabiliser ses vidéos à l’intérieur de Youtube et d’autres part la possibilité de créer un évènement en live à l’intérieur de Hangout.
Malgré l’arrivée d’un boitier aussi castard que le Nikon D800, le phénomène dit de l’iPhonographie prend de l’ampleur. Même si la qualité du capteur photo du smartphone hype d’Apple est juste de quoi rivaliser avec les boitiers compacts, ils offrent d’autres avantages créatifs qui permettent une autre approche de la photographie. Je vous laisse ici un article intéressant lu sur Les Numériques.
L’iPhonographie gagne chaque jour de nouveaux iPhonographers. Le phénomène gagne même les photographes professionnels. Smartphone à la main et applis en bandoulière, faire de belles photos, c’est presque donné. Aujourd’hui, on peut même suivre des cours de perfectionnement sur iPhone… (Le phénomène iPhonographie : l’important est de bien savoir filtrer, Les Numériques)
Et lorsque vous serez satisfait de vos iPhotos, il sera alors temps de vous pencher sur le meilleure moment pour les poster sur les réseaux sociaux en vous attardant sur cette article , par exemple le mercredi à 15h sur Facebook !
Guirlandes, boules et illuminations ont été déployées depuis quelques semaines, et comme chaque année, notre équipe du LabSET a cherché à réaliser une carte de voeux originale. Après quelques réflexions, au mois d’octobre, nous nous lancions dans un projet d’e-Fresque de Noël tout en Post IT, réalisée par chacun de nous et filmée. Les différentes vidéos servant par la suite à créer un petit clip vidéo qui pourrait faire le tour de la toile ! De quoi surfer sur la tendance des « Post IT Wars » qui sévissent dans les sociétés de part le monde !
Bon, cela fait un moment que j’en parle. J’ai la chance de pouvoir tester depuis le mois de juin deux tablettes tactiles : la bien connue iPad 2 d’Apple et à l’époque sa concurrente directe signée Samsung, la Galaxy Tab 10.1 (version P7100).
Technologiquement ces deux appareils sont assez proches, et je ne m’attarderais donc pas sur le processeur graphique de l’un ou la mémoire embarquée de l’autre. Ce qui m’intéresse par contre, c’est évidemment l’écosystème des deux, à savoir Google Androïd (Honeycomb 3.0) et iOS (version 5).
Histoire de ne pas dire de bêtise pour certains visiteurs, il faut savoir que le Galaxy Tab que j’ai ici a testé est un modèle resté très peu de temps sur le marché Belge et hollandais (P7100) et que celui-ci a été très remplacé par un autre modèle, améliorant peut-être l’expérience sur certains points.
Bref, un élément intéressant à comparer est la qualité de l’écran. La brillance de l’écran Samsung donne un rendu moins agréable à la lecture. Sur ce point l’iPad est clairement plus agréable pour lire du texte. Lors de mes premiers essais, je préférais vraiment la taille des touches tactiles de la Samsung, mais les améliorations apportées par iOS 5 ont rendu l’iPad plus agréable à ce niveau. Enfin, si je trouvais l’ergonomie de l’interface d’Androïd 2.2 Froyo (sur mon Smarphone) claire et pratique, je trouve au final la futuriste version 3.0 de Honeycomb assez désorganisée. J’ai du mal à savoir où mettre mon doigt, ou trouver les options et quels boutons fait quoi ! L’iPad avec son unique bouton n’est pas toujours intuitif… Il faut apprendre, mais une fois les habitudes prises, on se met dans le rythme. Peut-être la version 3.1 de Honeycomb améliore-t-elle les choses, mais il semble que Samsung ne se presse pas vraiment à la proposer sur la P7100.