Aller au contenu
Règlement du forum ×
IPTV et arnaques ×

AMD Kong : un GPU aux petits ognons


Invité salimdz

Messages recommandés

Invité salimdz

AMD Kong : un GPU aux petits ognons

 

Lundi 25 août 2008 à 11:50

 

AMD-Fusion,Q-T-2261-3.jpg

AMD Fusion : la polyvalence

 

Nos confrères d’IT.com ont obtenu quelques bribes d’information supplémentaires sur le coeur graphique du prochain processeur hybride Fusion d’AMD. D’une part, ils confirment ce que nous apprenions il y a peu : le GPU sera placé dans le même package mais pas intégré dans le die du CPU. Tous deux seront gravés en 45 nm.

 

Putaing : Kong !

Le GPU en lui-même, baptisé Kong ou RV810, serait très proche du RV610/615, que l’on retrouve sur les Radeon HD 2400 et 3450. Kong possèdera 40 stream processors, 8 unités de texture, et 4 ROP. Il intégrerait aussi le moteur UVD, et assurerait la compatibilité avec DirectX 10.1 (non pas que ce soit utile sur un chipset aussi peu puissant, mais bon).

 

Grâce à la gravure en 45 nm de TSMC, cette puce à l’architecture aujourd’hui parfaitement maîtrisée par AMD ne devrait consommer que 5 W à 600 MHz ou 8 W à 800 MHz. Au repos, la consommation pourrait même descendre à 0,4 ou 0,6 W.

 

De l’Onion, de l’ail... et un soupçon d’armagnac ?

AMD, sans doute pour pimenter les performances de son GCPU le doterait de deux nouveaux bus : Onion pour l’interface entre GPU et CPU, et Garlic (ail) pour les échanges entre le GPU et sa mémoire. Ses nouveaux bus dédiés à faible latence permettraient de booster les performances de Kong de 50 % par rapport à l’IGP du chipset 780G. A voir, en 2009...

 

source : http://www.presence-pc.com/actualite/fusion-shrike-kong-31023/

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • Messages

    • @aminou merci pour ce retour, bizarre quand meme que EC ne dise rien; et correction c'est pas "conversation" mais "convention" hahahaha ! je crois aussi que 500 megas et 1giga ne seront pas concernés...en effet on devra probablement attendre un contrat qui aura lieu au bas mot fin 2025....bon on verra bien c'est dans 6 mois inchallah; deja savoir qu'on aura ces offres je crois que c'est du jamais vécu en algerie ou auparavant c'etait les rumeurs sur ce meme forum qui donnaient les infos ...
    • Bonjour, c'est pas indiqué nul part que l'on abonnement est à prix réduit.  Et le problème de algerie telecom c'est qu'ils signent des conversations regide, j'ai eu le même cas que toi quand j'avais la fibre au début de mon abonnement ils m'avaient dit à l'époque que le ftth n'était pas concerné par la convention et seul l'offre adsl était réduite,  J'espère que quand on aura du 500 ou 1go ils vont pas nous dire d'attendre une nouvelle conversation pour bénéficier d'une réduction. ( et j'ai peur que ça ce passera comme ça).   
    • Ca fout les jetons. On a passé un point de non-retour terrifiant.
    • L'IA  transforme une simple photo d'un visage en vidéo avec paroles ou chansons Microsoft a dévoilé un nouvel outil d'IA de synchronisation labiale qui transforme une image fixe du visage d'une personne en un clip animé d'elle parlant ou chantant baptisé VASA-1. VASA-1 est non seulement capable de produire des mouvements de lèvres « superbement synchronisés » avec l’audio, mais il peut également capturer un« large spectre » de nuances faciales et de mouvements naturels de la tête qui contribuent à la perception d’authenticité et de vivacité. Il s'agit d'une « dynamique faciale holistique » et un modèle de génération de mouvements de tête qui fonctionne dans un espace latent du visage. La société affirme qu’elle « surpasse largement les méthodes précédentes ». VASA n'est actuellement qu'une démonstration de recherche sans projet de commercialisation du produit ou de permettre à d'autres d'utiliser l'API ; essentiellement, Microsoft veut simplement montrer son modèle de synchronisation labiale. La société affirme que VASA acceptera les demandes telles que l'endroit où le personnage doit regarder, le recadrage sur la tête du sujet et ses émotions tout en parlant, notamment neutre, heureux, en colère ou surpris. Démonstration avec La Jocande qui chante (vidéo)
    • Bonjour, Faut voir les services en ligne tel que : https://www.ringover.fr/tarifs
×
×
  • Créer...