Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1510 connectés 

 

 

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18
Auteur Sujet :

News - Technologies, procédés, découvertes, actualité et situation

n°6497683
marllt2
Posté le 17-07-2008 à 17:48:25  profilanswer
 

Reprise du message précédent :

super_newbie_pro a écrit :

Le futur CPU d'AMD, le G34, pour 2010, rectangulaire


Heu, le socket AM3 il devient quoi ?

mood
Publicité
Posté le 17-07-2008 à 17:48:25  profilanswer
 

n°6498501
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 18-07-2008 à 01:14:14  profilanswer
 
n°6498576
M16
Posté le 18-07-2008 à 06:31:44  profilanswer
 


 
This provides dramatically higher performance
 
j'aime bien le terme. :love:  
 
maintenant il faudra voir dans la vrai vie avec des applications pas forcement dedie

n°6512184
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 26-07-2008 à 23:31:25  profilanswer
 

Une avancée logicielle majeure ou un effet d'annonce ? :heink:  
 
The battle between price and performance ends. A whole new world of graphics begins. Turbocharge your multi-GPU computing experience with the HYDRA Engine by Lucid. Let's play.
 
We're obsessed about helping make your graphics performance even better.
 
Meet the all-new HYDRA Engine by Lucid, the world's first real-time distributed processing engine designed to kick up the power of your PC. It's the cool "secret weapon" you need to pull maximum performance out of whatever creature or character you're playing today - warlord, alien, soldier or Sim.
 
The HYDRA Engine by Lucid is a patented system-on-a-chip designed to boost graphic performance in any multi-GPU environment, from mainstream to the most complex. Placed between a PC's chipset and GPUs, the HYDRA Engine smartly directs graphic processing traffic between the GPUs, using several intelligent parallelization algorithms. The result? Lower costs, better graphics, more responsiveness, and more power and fun for you - even with the most complex 3D scenes, animations or car chases frenetically flashing across your screen.
 
Best of all, the HYDRA Engine blasts down barricades in existing multi-GPU computing:
 
* When you scale two or more graphics cards, the HYDRA Engine helps you achieve a near-linear to above-linear increase in performance - a breakthrough for the industry.
* The HYDRA Engine is the first solution that "plays well with others." Unlike other technologies, it is completely compatible with all gaming applications, chipsets and GPUs from any vendor, so you can develop a totally customizable PC solution. Mix and match elements into your gaming system to achieve the price and performance level that's just perfect for you. And developers no longer have to write games and applications specific to a chip. Whether the API is OpenGL or Direct3D, the HYDRA Engine can tackle both.
 
Our goal is to make photorealistic graphics mainstream and affordable for everyone on graphics-enabled platforms, including PCs, notebooks and gaming consoles. Consumers and manufacturers can deploy the HYDRA Engine:
 
* On motherboards
* As an add-in board
 
We'll soon have more to share about HYDRA Engine technology and how it helps harness the true power of multi-GPU computing. Watch for partner announcements and consumer product availability coming in 2009 !
 
source : http://www.lucidlogix.com/technology/index.html  :heink:


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6512372
NightmareR​equiem
Posté le 27-07-2008 à 10:26:39  profilanswer
 

C'est possible que tu traduise en français? Parce que la c'est du charabia !!!

n°6512410
M16
Posté le 27-07-2008 à 11:15:43  profilanswer
 

cest une puce qui s'intercalera entre le chipset et le gpu.
 

n°6512412
M16
Posté le 27-07-2008 à 11:17:08  profilanswer
 

je vois pas du tout en quoi ca peut aider.


Message édité par M16 le 27-07-2008 à 11:17:28
n°6536656
marllt2
Posté le 12-08-2008 à 05:05:29  profilanswer
 

http://www.canardplus.com/dossier- [...] swell.html
 
Roadmap CPU chez intel:
 
http://www.canardplus.com/img/dossier/divers/idf2008/ticktock.jpg
 
Le premier 8-core natif sera le Sandy Bridge, avec 8x 512Ko de L2, et 16Mo de L3 partagés.  
 
Ce sera le 1er CPU à avoir les instructions AVX (Advanced Vectors Extensions), anciennement appellé VSSE.


Message édité par marllt2 le 12-08-2008 à 05:39:39
n°6537062
Yoyo_5
Posté le 12-08-2008 à 11:34:47  profilanswer
 

On en a aura grand besoin, les CPU actuels bridant trop fortement le potentiel des CG... :)


---------------
¤ Paix et félicité ¤

n°6546826
M16
Posté le 18-08-2008 à 07:00:06  profilanswer
 

je vais garder ma 3870 pour voir ce qu'elle fera sous 2006.
 
.. a moins qui ai changer de port graphique.


Message édité par M16 le 18-08-2008 à 07:01:22
mood
Publicité
Posté le 18-08-2008 à 07:00:06  profilanswer
 

n°6548823
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 19-08-2008 à 05:16:44  profilanswer
 

AMD premier sur le 22nm ?? euh... :heink:  
-------------
Yorktown Heights (NY) - IBMhttp://en.wikipedia.org/wiki/IBM and its chip development partners, including AMD, made a stunning announcement today, apparently beating Intelhttp://en.wikipedia.org/wiki/Intel_Corporation in the successful production of the first functional 22 nmhttp://en.wikipedia.org/wiki/22_nanometer SRAM cell. 22 nm processors are still three years out in the future, but IBM’s news is a good sign that chip manufacturer will be able to easily scale to this new level by the end of 2011. It appears that, for the first time in several decades, Intel may have to put some extra time into its research and development efforts to make sure it can keep its manufacturing lead at 22 nm and beyond.
SRAM chips are typically the first semiconductor devices to test a new manufacturing process as a precursor to actual microprocessors. The devices developed and manufactured by AMD, Freescalehttp://en.wikipedia.org/wiki/Freescale_Semiconductor , IBM STMicroelectronics, Toshibahttp://en.wikipedia.org/wiki/Toshiba and the College of Nanoscale Science and Engineering (CNSE) were built in a traditional six-transistorhttp://en.wikipedia.org/wiki/Transistor design on a 300 mm wafer and had a memory cell size of just 0.1 μm2, which compares to Intel’s 45 nm SRAM cell size (the test chip that was used for today’s 45 nm processors) of 0.346 μm2.
 
http://resources.vr-zone.com/image_deposit/up/1219110496bb96926763.jpg
 
A 22 nm chip is two generations out in the future and AMD even has to catch up with Intel’s 45 nm. Intel presented the first 32 nm SRAM cell wafer in September of last year and in fact is not expected to show 22 nm SRAM cells for at least another year, while first 32 nm CPU prototypes could be shown at IDF this week.
IBM said that it is on track with its 32 nm process and promises that it will use a "leading 32 nm high-K metal gate technology that no other company or consortium can match." IBM did not provide further details to substantiate this claim, however, Intel has been using its high-K metal gate technology since the introduction of the 45 nm Penryn processors in late 2007.
While we are far from actual 22 nm and 32 nm products, it is clear that IBM and its partners are turning up the heat on Intel. For the first time in decades, there could actually be an interesting race towards a new production node."
 
source : http://forums.vr-zone.com/showthre [...] a&t=315947


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6549493
M16
Posté le 19-08-2008 à 15:24:26  profilanswer
 

super_newbie_pro a écrit :

AMD premier sur le 22nm ?? euh... :heink:  
-------------
Yorktown Heights (NY) - IBMhttp://en.wikipedia.org/wiki/IBM and its chip development partners, including AMD, made a stunning announcement today, apparently beating Intelhttp://en.wikipedia.org/wiki/Intel_Corporation in the successful production of the first functional 22 nmhttp://en.wikipedia.org/wiki/22_nanometer SRAM cell. 22 nm processors are still three years out in the future, but IBM’s news is a good sign that chip manufacturer will be able to easily scale to this new level by the end of 2011. It appears that, for the first time in several decades, Intel may have to put some extra time into its research and development efforts to make sure it can keep its manufacturing lead at 22 nm and beyond.
SRAM chips are typically the first semiconductor devices to test a new manufacturing process as a precursor to actual microprocessors. The devices developed and manufactured by AMD, Freescalehttp://en.wikipedia.org/wiki/Freescale_Semiconductor , IBM STMicroelectronics, Toshibahttp://en.wikipedia.org/wiki/Toshiba and the College of Nanoscale Science and Engineering (CNSE) were built in a traditional six-transistorhttp://en.wikipedia.org/wiki/Transistor design on a 300 mm wafer and had a memory cell size of just 0.1 μm2, which compares to Intel’s 45 nm SRAM cell size (the test chip that was used for today’s 45 nm processors) of 0.346 μm2.
 
http://resources.vr-zone.com/image [...] 926763.jpg
 
A 22 nm chip is two generations out in the future and AMD even has to catch up with Intel’s 45 nm. Intel presented the first 32 nm SRAM cell wafer in September of last year and in fact is not expected to show 22 nm SRAM cells for at least another year, while first 32 nm CPU prototypes could be shown at IDF this week.
IBM said that it is on track with its 32 nm process and promises that it will use a "leading 32 nm high-K metal gate technology that no other company or consortium can match." IBM did not provide further details to substantiate this claim, however, Intel has been using its high-K metal gate technology since the introduction of the 45 nm Penryn processors in late 2007.
While we are far from actual 22 nm and 32 nm products, it is clear that IBM and its partners are turning up the heat on Intel. For the first time in decades, there could actually be an interesting race towards a new production node."
 
source : http://forums.vr-zone.com/showthre [...] a&t=315947


 
ca serait une bonne nouvelle.
maintenant concretement, m'etonerait qui sorte du matos de suite.(.. plutot a 2 ans)

n°6563425
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 27-08-2008 à 00:51:56  profilanswer
 

DDR4 en vue !
 
Si la DDR2 est encore très utilisée, l'arrivée des processeurs Nehalem qui supportent uniquement la DDR3 devrait changer la donne. Dès la fin de l'année, les premiers processeurs Intel Core i7 seront commercialisés. Ils utiliseront le Socket LGA 1366 et exploiteront uniquement de la DDR3. Ces modèles seront bien sûr réservés au segment haut de gamme. Il faudra attendre le troisième trimestre 2009 pour voir les premiers Core i7 de milieu de gamme. Ces processeurs utiliseront le Socket LGA 1160 mais toujours la DDR3. Ils signeront le début de la fin pour la DDR2.
 
http://www.matbe.com/images/biblio/divers/000000074826.jpg
Roadmap Qimonda DDR4
 
Dès 2012, on devrait voir les premiers modules de DDR4. Ces barrettes fonctionneront à une fréquence de 2 133 MHz avec une tension de seulement 1,2V contre 1,5V pour la DDR3 et 1,8V pour la DDR2. Elles pourraient atteindre 2 667 MHz avec une tension de seulement 1,0V en 2013. Evidemment, il faudra au moins deux ou trois ans pour que la DDR4 s'impose sur le marché, comme la DDR3.
source : matbe.
 
==========
 
Un peu de blabla sur les GPU de 2013 par nvidia ==> http://www.clubic.com/actualite-15 [...] -2013.html


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6563426
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 27-08-2008 à 00:53:58  profilanswer
 

Roadmap AMD jusqu'en 2010
 
Alors qu'Intel devrait sortir ses premiers processeurs à huit cores en 2009, la dernière roadmap AMD annonce la sortie d'un processeur Phenom "Istanbul" à six cores pour le second semestre 2009. Il sera associé aux chipsets SR5690 et SP5100 d'AMD. Prévu pour 2010, le Phenom "Sao Paulo" embarquera toujours six cores, 6 Mo de cache L3 et quatre liens Hypertransport 3.0.
 
 
http://www.matbe.com/images/biblio/divers/000000074824.jpg
Roadmap AMD pour 2009 et 2010
 
Enfin, le fondeur ira encore plus loin avec son Phenom "Magny-Cours" prévu lui aussi pour 2010. Ce processeur disposera de 12 cores, de 12 Mo de cache L3 et de quatre liens HyperTransport 3.0. Ces processeurs seront destinés aux serveurs et on le comprend bien à l'heure où les processeurs semblent déjà trop puissants pour le grand public.
source : matbe
 
Espérons juste qu'ils améliorent les perfs de leur "phénom" (j'allais dire fantôme)
 
===============
 
http://static.pcinpact.com/images/bd/news/62045-amd-phenom-deneb-2009-roadmap.png
 
Le site VR-Zone publie la feuille de route des processeurs de bureau AMD jusqu'en 2009, avec une gamme complète de Phenom gravés en 45 nm, du double au quadricœur.
 
Les documents mettent désormais toutes les rumeurs d'accord, à condition qu'AMD respecte ses prévisions, évidemment. On constate que le Deneb, Phenom quadricœur en 45 nm, devrait arriver dès le début de l'année 2009 en socket AM2+ (lancement le 1er décembre 2008) puis en socket AM3. Tous les autres Phenom en 45 nm d'AMD arriveront ensuite en socket AM3 uniquement.
 
Le haut de gamme sera comblé vers la mi-2009 avec un Deneb FX, dont le coefficient multiplicateur sera certainement débloqué. Il devrait avoir un TDP de 125 W au minimum.
 
La nouveauté viendra surtout des processeurs d'entrée de gamme, avec le quadricœur Propus et le triple-cœur Rana, tous les deux sans aucune mémoire cache L3. Le Heka arrivera en revanche en triple-cœur avec un cache L3 partagé. Enfin, le double-cœur Regor arrivera aussi plus tard dans l'année, ce sera un Phenom X2 sans cache L3, mais avec 1 Mo de cache L2 par cœur.
 
Plus de documents sur cette page, chez VR-Zone ==> http://www.pcinpact.com/link.php?u [...] F6046.html


Message édité par super_newbie_pro le 15-09-2008 à 12:14:19

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6569316
marllt2
Posté le 30-08-2008 à 03:19:49  profilanswer
 

http://vr-zone.com/articles/Nvidia [...] /6020.html
 
nVidia va migrer au 40nm plus vite que prévu...

n°6587316
kaiser52
Posté le 09-09-2008 à 21:26:34  profilanswer
 

Nvidia est passé en vachement fin avec ça puce Tegra pour MID et smartphone.
 
144mm² pour un proco ARM11@700Mhz une puce dédié à la video HD, un Geforce (Geforce 6 selon les rumeurs), et de quoi gerer de l'USB OTG, HDMI, DDR, Flash NAND et d'autres encore.
 
Pour la finesse du procédé je sais pas, mais 100mw en idle et 200mw en full soit disant !
Affaire a suivre donc.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6588065
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 10-09-2008 à 13:42:48  profilanswer
 

Une nouvelle très importante :
---------------
La nouvelle stratégie d'AMD prend forme. Le fabricant de micro-processeurs et de puces graphiques, malmené par Intel et pénalisé par l'acquisition d'ATI, fait face à des difficultés financières qui l'amènent à une restructuration majeure. Après avoir annoncé il y a quelques jours la vente de sa division télévision numérique, le fondeur confirme aujourd'hui son souhait de passer au modèle dit fabless, alors que de nombreuses rumeurs prêtaient déjà à AMD l'intention d'effectuer des changements radicaux dans son processus de production.
 
Dirk Meyer, PDG d'AMD depuis peu, a effectivement affirmé lors d'une interview accordée à Fortune que la société allait « s'éloigner du modèle dans lequel ils possèdent leurs usines pour un modèle sans unité de production », pour la production de ses processeurs. L'entretien des usines est très coûteux et le fondeur pourrait ainsi se concentrer sur la conception des puces, ce qui lui permettrait par exemple de rattraper son retard sur la gravure en 45 nanomètres, un procédé qui présente l'avantage, entre autres, de réduire les coûts de production. Avec la sous-traitance, la facturation se fait au fur et à mesure de la production, de quoi alléger les frais de fonctionnement de la société. La production des puces graphiques quant à elle se fait déjà en sous-traitance.
 
En externalisant sa production, la restructuration basée sur une stratégie dite de smart asset (gestion intelligente des actifs) est donc en marche. Clairvoyant, Dirk Meyer admet que l'acquisition d'ATI est à l'origine de ses difficultés. Il rassure toutefois les investisseurs en indiquant que l'externalisation est probablement la meilleure chose que la société peut faire pour remonter la pente... À court terme. Intel par exemple, leader sur le marché du processeur, développe en interne ses propres capacités de production.  
Source : clubic
 
Reste la question ; quand vont-ils vendre leurs usines et à qui ? Je crois que la chose la plus délirante qui soit, serait une revente à INTEL mouahahahahaha


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6589408
marllt2
Posté le 11-09-2008 à 02:11:50  profilanswer
 

http://www.fudzilla.com/index.php? [...] 9&Itemid=1
 
Selon nVidia, un CPU est comme 5 profs de maths, alors qu'un GPU est comme 100 élèves de maths...

n°6589465
kaiser52
Posté le 11-09-2008 à 07:57:54  profilanswer
 

Citation :

That is Nvidia’s biggest problem of them all, as they need to make people care about GPU as roughly 50 percent of PCs still have Intel’s integrated graphics processor to serve as a graphics subsystem, and most  people don’t even need anything better than that.
 
Nvidia’s job is to change this.


 
Voila pourquoi le jeux video PC va mal !
Imaginez ce que ça donne quand ils essayent de lancer Crysis ! c'est de la merde !
 
On espère tous que Nvidia et ATI changeront ça !
(déà il faudrait commencer par baissé les prix, et plus faire du THDG@650€)


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6590371
marllt2
Posté le 11-09-2008 à 20:14:54  profilanswer
 

Une HD 4670 à 70€ permet déjà de jouer "correctement" à Crysis en réso standart.

n°6590420
kaiser52
Posté le 11-09-2008 à 20:38:40  profilanswer
 

Oui, mais il y'à énormément de gen qui veulent jouer sur PC avec des PC Leclerc / Carrefour / Auchan sans même deigner l'ouvrir, donc leur demandé de changer la Carte Graphique ^^
Puis vue les alims fournis c'est une Blague !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6590441
Geniefou
Génie le jour, fou la nuit
Posté le 11-09-2008 à 20:50:15  profilanswer
 

kaiser52 a écrit :

Oui, mais il y'à énormément de gens qui veulent jouer sur PC avec des PC Leclerc / Carrefour / Auchan sans même deigner l'ouvrir, donc leur demandé de changer la Carte Graphique ^^
Puis vue les alims fournis c'est une Blague !


 
et bien justement c'est une question d'honnêteté...
 
en comparant à mon boulot (je sais comparaison à deux bal :o )
si un client à les deux pneus de devant foutu et ceux de dérrière ils font encore 1000 km et il faut aussi les changer

  • soit tu lui changes juste les 2 pneus de devant et ensuite il doit revenir 1 à 2 moins plus tard pour changer les 2 pneus de dérrière
  • soit tu lui dit... écoutez M. X ce serait mieux de changer les 4 comme ça vous partez avec du neuf


mais biensûr comme le changement de pneu (la main d'oeuvre) est un forfait (changer 2 ou 4 pneus revient au même prix) certain seront malhonnête comme ça le client payera plusieurs fois le forfait... au final tout est tourné autour du fric  :pfff:  
 
 


---------------
un vrai geek croit que dans 1 kilomètre il y a 1024 mètres et que dans 1 mètre il y a 1024 millimètres
n°6590911
marllt2
Posté le 12-09-2008 à 02:46:00  profilanswer
 

C'est sûrement déjà passé, mais je le remet:
 
http://en.expreview.com/img/review/vgacooler08/gpuvscpu-1.jpg

n°6591044
Yoyo_5
Posté le 12-09-2008 à 10:15:31  profilanswer
 

En gros 12 coeurs Intel pour un GPU nVidia... :D
Ce qui est fou c'est que ATI fait presque aussi puissant pour 4 fois plus petit... [:tinostar]


---------------
¤ Paix et félicité ¤

n°6595937
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 15-09-2008 à 12:15:31  profilanswer
 

marllt2 a écrit :

C'est sûrement déjà passé, mais je le remet:
 
http://en.expreview.com/img/review [...] scpu-1.jpg


 

Yoyo_5 a écrit :

En gros 12 coeurs Intel pour un GPU nVidia... :D
Ce qui est fou c'est que ATI fait presque aussi puissant pour 4 fois plus petit... [:tinostar]


 
OUCH !!! Saperlipopette... effectivement ! j'enregistre sur mon DD cette image de référence ! merci


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6596537
marllt2
Posté le 15-09-2008 à 18:39:04  profilanswer
 

Après on s'étonne que le GT200 ait eu 6 mois de retard, à cause de soucis de gravure...

n°6597594
Yoyo_5
Posté le 16-09-2008 à 11:45:42  profilanswer
 

Bha si nVidia est suffisamment bête pour faire des GPU de cette taille, c'est son problème... :spamafote:
EDIT: Dire que le RV770 est presque aussi perf pour une taille nettement moindre, y a de l'opti au moins. :)


Message édité par Yoyo_5 le 16-09-2008 à 11:47:02

---------------
¤ Paix et félicité ¤

n°6598995
marllt2
Posté le 17-09-2008 à 05:56:15  profilanswer
 

Dans le genre toujours plus gros, il y a le Dunnington: 1.9 milliards de transitors en 45nm:
 
http://www.hardwarezone.com/img/data/articles/2008/2516/Dunnington-core-3.jpg
 
Pour faire simple, ce sont 3 E7200 collés ensembles avec 16Mo de L3, le tout dans un seul die. Le prix est à la hauteur... 2729$ HT/1000 pour le X7460.
Dans un autre registre, la gravure en 22nm sur des waferd de 450mm est prévue pour 2012 chez intel: http://www.presence-pc.com/actuali [...] fer-29184/


Message édité par marllt2 le 17-09-2008 à 06:27:03
n°6600155
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 17-09-2008 à 21:00:18  profilanswer
 

L'Université de Rochester a présenté aujourd'hui le premier véritable processeur en 3D. Il s'agit d'une technologie qui répond aux problématiques de miniaturisation et d'augmentation constante de la puissance des processeurs, et non d'un processeur destiné à calculer des scènes tridimensionnelles comme on pourrait le penser au premier abord.
 
Les solution mise en œuvre actuellement pour augmenter la puissance des processeurs sont l'augmentation du nombre de cœurs sur une même pièce de silicium et l'affinage de la gravure. Les processeurs s'étalent ainsi à plat, sur deux dimensions, et bien que ce soit efficace sur le plan de la dissipation thermique, ces méthodes présentent des inconvénients, notamment des soucis de propagation des informations sur des interconnexions qui sont de plus en plus longues. Reste alors à étaler les puces vers le haut ! C'est en tout cas ce que suggèrent certains chercheurs comme Eby Friedman de l'Université de Rochester, qui est l'un des créateurs de ce véritable processeur en 3D.
 
 
http://img.clubic.com/photo/01621444.jpg
 
Des tentatives ont déjà été faites dans le domaine, mais il s'agissait le plus souvent d'un empilement de cœurs reliés entre eux par un petit nombre de connecteurs. Le cube d'Eby Friedman et de son équipe, tel qu'ils l'appellent, est une véritable matrice dont les différentes couches sont reliées entre elles par des millions de connecteurs. Les interconnexions sont optimisées tant sur le plan horizontal que vertical. « J'appelle ça un cube car ce n'est plus qu'une simple puce. C'est dans cette direction que l'informatique va devoir aller dans le futur, » a déclaré Eby Friedman, ajoutant que « les puces superposées les unes aux autres peuvent faire des choses qui n'auraient jamais été possibles en 2D classique. »
 
Le processeur, fabriqué en collaboration avec le MIT, est cadencé à 1,4 GHz. À terme, cette technologie permettrait de diviser par dix la taille d'une puce tout en l'accélérant d'autant. On peut définitivement affirmer que l'informatique tend vers la 3D, car bien que cette technologie soit encore à l'état embryonnaire, elle rejoint le stockage holographique au rang des innovations prometteuses.  
source : http://www.clubic.com/actualite-16 [...] mites.html
 
Ca ne vous rappel rien ?
 
http://www.yourprops.com/norm-478779139a074-Terminator+2:+Judgment+Day+(1991).jpeg
 
Ben oui, la fameuse puce du terminator, avec des processeurs en 3D :love:
 
Evidemment, c'est sans compter le MONARCH ; un processeur polymorphique, processeur militaire (owi owi owi terminator et skynet) un truc de science fiction devenu réalité :
 
http://www.onversity.net/image/actual/monarch.png
 
Plus d'infos ? http://www.onversity.net/cgi-bin/p [...] P=00000965
 

Citation :

Selon Raytheon, MONARCH serait 10 fois plus rapide qu'un processeur Xeon et 2 fois plus rapide qu'un processeur CELL avec un Gflops/watt de 5 contre 2,2 pour le CELL et 0,5 pour le Xeon. Evidemment sans de plus amples informations, ces chiffres n'engagent que leurs auteurs. Ce processeur n'est pas le premier à être du type FPGA, mais peut-être le premier à pouvoir s'autoconfigurer à la volée. Mais comme tout cela restera essentiellement secret pour encore bon nombre d'années, il ne faut pas s'attendre à y voir des retombées et encore si cela arrive un jour.


Message édité par super_newbie_pro le 17-09-2008 à 21:08:07

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6602428
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 19-09-2008 à 12:44:06  profilanswer
 

le 22nm approche
 
IBM serait en mesure de fabriquer des puces gravées en 22 nanomètres. Le centre de recherche et développement en semi-conducteurs d'IBM déclare en effet avoir résolu les soucis rencontrés par les technologies actuellement en production.
 
Les fabricants de micro-processeurs on tous pour objectif de réduire la finesse de gravure de leurs puces, ce qui permet de concevoir des processeurs plus puissants tout en réduisant leur consommation et leur échauffement. Intel, qui est d'ores et déjà capable de graver en 45 nm, prévoit d'introduire des processeurs gravés en 32 nm dès 2009. Jusqu'à présent il s'agissait de réduire la taille des procédés employés pour la gravure. Au delà du 32 nm, les fondeurs sont confrontés à certaines limitations fondamentales de la physique.
 
La lumière utilisée pour la gravure des micro-processeurs mesure en effet 193 nm, il s'agit donc de maitriser le masquage de cette lumière pour créer une ombre aux dimensions souhaitées. Jusqu'à présent les techniques employées ne permettaient pas de les diminuer encore un peu plus. Big Blue a donc dévoilé un procédé nommé Computation Scaling qui permet d'atteindre une finesse de 22 nm. Celui-ci utilise des techniques mathématiques complexes qui modifient la forme et les caractéristiques de la source lumineuse employée pour la gravure des circuits. Pour autant, on peut penser qu'ils conserveront la technologie high-k, du nom d'un matériau de nouvelle génération employé dans la fabrication des transistors, qu'ils prévoient d'utiliser pour le 32 nm. Ces derniers visent notamment à réduire le leakage ou fuite d'électrons. « La difficulté est de s'assurer que le schéma de diffraction produit par la lumière est le schéma que vous voulez imprimer, » a déclaré Subu Iyer, un ingénieur d'IBM.
 
Prochaine étape ? L'utilisation de rayons X, qui sont environ 1 000 fois plus fins (quelques picomètres) et qui annulent bon nombre des limitations imposées par les sources de lumières employées aujourd'hui. « Si je pouvais utiliser des rayons X, je serais capable de graver en 22 nm facilement » conclu le chercheur.  
source : http://www.clubic.com/actualite-16 [...] 22-nm.html
 
Peut être une chance pour AMD de remonter face à Intel ?


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6602447
kaiser52
Posté le 19-09-2008 à 12:54:15  profilanswer
 

Ca claque !
C'est beaucoup plus rapide que tous ce qui était prévus en tous cas.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6603141
Geniefou
Génie le jour, fou la nuit
Posté le 19-09-2008 à 19:29:47  profilanswer
 

super_newbie_pro a écrit :

Si je pouvais utiliser des rayons X, je serais capable de graver en 22 nm facilement » conclu le chercheur.  


 
si chacun des forumeurs de hardware.fr me donnait 100 euro je serais en mesure de me faire facilement 50 PC  :o  :D


---------------
un vrai geek croit que dans 1 kilomètre il y a 1024 mètres et que dans 1 mètre il y a 1024 millimètres
n°6604150
Yoyo_5
Posté le 20-09-2008 à 14:18:08  profilanswer
 

Je vais ouvrir un topic à don, on ne sait jamais, pitet que tout le monde me donnera des sioux... [:melon]


---------------
¤ Paix et félicité ¤

n°6619610
marllt2
Posté le 30-09-2008 à 04:23:29  profilanswer
 

TSMC unveils 32nm and 28nm plans : http://www.nordichardware.com/news,8171.html
 
Nvidia GPU solder joints at a disadvantage over ATI, scientist says : http://www.tgdaily.com/content/view/39506/135/


Message édité par marllt2 le 30-09-2008 à 05:30:26
n°6619613
Profil sup​primé
Posté le 30-09-2008 à 04:43:19  answer
 

[:adodonicoco]

n°6632850
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 08-10-2008 à 00:36:43  profilanswer
 

Intel invente l'électricité sans fil    21:34 23/08/08
Publié le 22/08/2008 à 15:08 Le Point.fr
 
Intel veut inventer l'électricité sans fil
Par Guerric Poncet
 
Imprimez Réagissez Classez Qui ne rêve pas de se débarrasser des dizaines de cordons d'alimentation électrique qui envahissent le dessous des bureaux ? Ordinateur, imprimante, scanner, téléphone portable, lampe, haut-parleurs : chacun dispose d'un grand nombre d'appareils qui ont besoin d'énergie pour s'animer. D'après le New York Times , Intel aurait fait une avancée majeure vers une solution d'alimentation électrique sans câble, grâce à l'utilisation de champs magnétiques.
 
Grâce à cette trouvaille, il suffira peut-être bientôt de poser un appareil sur une surface spécialement adaptée afin de le recharger. Par exemple, un téléphone portable pourra remplir ses batteries simplement en étant déposé sur un bureau, au contact par exemple d'un sous-main équipé de la technologie d'Intel. Selon Justin Rattner, responsable du projet, "cette technologie pourrait être intégrée dans les tables et les surfaces de travail".
 
Bloqué à 60 Watts
 
La technologie d'Intel est fondée sur des recherches effectuées par le Massachusetts Institute of Technology (MIT), qui a depuis longtemps consacré de gros efforts à la mise au point de la WiTricity (pour wireless electricity, électricité sans fil). Les chercheurs avaient prouvé la possibilité de ne perdre "que" la moitié de l'énergie transmise à plusieurs mètres, sans câble.
 
Alors qu'Intel est, pour l'instant, bloqué à 60 Watts, les chercheurs essaient d'atteindre une puissance qui permettrait de recharger un ordinateur portable sans câble. D'autres technologies expérimentales permettaient déjà de recharger des appareils sans cordon, mais elles étaient moins performantes et, surtout, aucune n'avait réussi à le faire sans intervention de l'utilisateur. Avec la solution d'Intel, le transfert d'énergie débute sans pression sur un quelconque bouton : il suffit juste de rapprocher l'appareil de la surface spéciale.
 
Le fabricant a cependant estimé qu'un quart de l'énergie serait perdue durant le transfert, ce qui n'est pas vraiment un atout écologique. À l'heure où les États-Unis, par exemple, peinent à produire assez d'électricité pour satisfaire leurs besoins, un gaspillage supplémentaire ne sera peut-être pas très bien vu.


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6632858
Profil sup​primé
Posté le 08-10-2008 à 00:43:26  answer
 

pas mal... :jap:  
 
 
ce ne regarde que les petits appareils, dommage... :D

n°6633069
Yoyo_5
Posté le 08-10-2008 à 10:50:04  profilanswer
 

Quid de la nocivité de la technologie...? [:canaille]


---------------
¤ Paix et félicité ¤

n°6633577
marllt2
Posté le 08-10-2008 à 16:13:25  profilanswer
 

http://www.matbe.com/actualites/49 [...] y-company/
 
22nm en 2012 pour la FAB 4x de TFC (ex AMD)

n°6636631
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 10-10-2008 à 19:06:19  profilanswer
 

Waffer de 450mm
 
Alors qu’à l’heure actuelle, la plus grande taille d'un wafer est de 300 mm (et encore uniquement pour les meilleures usines), des discussions concernant le passage à des wafers de 450 mm sont en cours depuis quelque temps. Certains analystes n’y croyaient pas, étant donné le coût inhérent a la mise à jour d’une ligne de production, et aux technologies employées.
 
Aujourd’hui, un agenda a été dévoilé indiquant ce qui pourrait être la sortie des premières puces gravées sur des wafers de 450 mm : 2017. Les socités qui souhaitent voir utiliser ce format sont Intel, TSMC et Samsung. La toute récente Foundry Company (voir cette news) ne semble pas s’être exprimée sur le sujet, et vu qu’elle en est à peine en train de mettre à jour une de ses lignes en 300 mm, de se construire une seconde usine… voire de survivre diront certains, elle n'est pas réellement concernée pour l'instant. Pour les sociétés précitées, le coût total des mises à jour atteindrait de 20 à 40 milliards de dollars ! Les seules machines utilisées pour fabriquer de tels wafers sont évaluées à 100 millions.
 
L’agenda serait le suivant :
 
    * 2009 Début des discussions
    * 2010 Premier prototype pour tester la faisabilité
    * 2012-2013 Premiers prototypes de machines de production
    * 2014-2016 Machines prêtes
    * 2017-2019 Début de la production a des finesses entre 8 et 5 nm
 
Tout cela est bien sûr entièrement théorique, et sous de nombreuses conditions avec pour commencer au plus proche, un retour à la normale de l’économie.


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6639371
marllt2
Posté le 12-10-2008 à 20:20:06  profilanswer
 

super_newbie_pro a écrit :

Aujourd’hui, un agenda a été dévoilé indiquant ce qui pourrait être la sortie des premières puces gravées sur des wafers de 450 mm : 2017.


Heu, PPC a encore raconté nawak ? Vu qu'ils disent 450mm en 22nm pour 2012 chez Intel:
 
http://www.presence-pc.com/actuali [...] fer-29184/


Message édité par marllt2 le 12-10-2008 à 20:20:15
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18

Aller à :
Ajouter une réponse
 

Sujets relatifs
News PC quelques questionPanne a8nsli deluxe (avis sur la situation)
ma news moboAvis - Conseils sur news Config...
news seagate 7200.10 250go qui a disparu du bios...[RCH/ACH]conseil achat news pc pour joueur
PC Horizontal /Vertical--> Marche / marche pas ..la suite[Topic unique] HD 3870x2
News configplate-forme STAFF IPX de AFFIXE Technologies
Plus de sujets relatifs à : News - Technologies, procédés, découvertes, actualité et situation


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR