arno_vexx Wrote:comme beaucoup de dev il ne cherche que la rentabilité moins de temps passé pour gagné plus d'argent.
Ce n'est pas plutôt Micro$oft qui cherche la rentabilité en utilisant de la DDR3 pour la carte graphique ? "Hey, on va utiliser de la RAM destiné aux CPUs sur le GPU avec un cache de 32 Mo (!) pour économiser nos ronds, puis on va dire aux devs de se démerder !".
arno_vexx Wrote:vivement que les dev kit de la xbox one de demanderons plus au studio de dev de réfléchir et gérera seul l'esram
Encore un fois, si les devs de chez Micro$oft, eux, ne cherchaient pas la rentabilité, pourquoi ils n'ont pas fait un SDK qui gère les 32Mo de cache de façon transparente dès la sortie de la machine ?
C'est quand même la machine de Micro$oft, c'est à eux de fournir une machine puissante et agréable à programmer si ils veulent la vendre. A non c'est vrai j'oubliais, ils n'ont pas besoin de faire de la qualité pour vendre, leur puissance marketing suffit.
Le problème d'avoir fait le choix de la DD3 + cache 32 Mo c'est que c'est un choix uniquement pour faire des économies. Si ça avait permis de faire du 4K, c'est clair que les devs s'y pencheraient dessus avec enthousiasme. Mais quand c'est juste pour éventuellement arriver à faire du 1080p, qui est la résolution normale sur les TV et sur les PC depuis des années... On ne peut pas vraiment leur reprocher leur manque d'enthousiasme.
Le choix de faire des économies sur la RAM vidéo et le choix de faire des économies sur le SDK en ne rendant pas la chose transparente sont des choix de Micro$oft. Les devs de jeux ne sont pas a blâmer ! (en tous cas pas sur ça).