Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Shop Recherche
1940 connectés 

 


 

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18
Auteur Sujet :

News - Technologies, procédés, découvertes, actualité et situation

n°7129250
Zack38
Posté le 23-09-2009 à 12:30:26  profilanswer
 

Reprise du message précédent :
Bon, alors, voilà, vous connaissez tous la puce Hydra de Lucid Technology, petite firme inconnue dans laquelle Intel investit énormément d'argent, et non pas sans raison : la puce Hydra devrait permettre de faire un "CrossSLI", autrement dit de combiner 2 cartes graphiques quelle que soit leur origine (comme une Radeon et une GeForce) en augmentant les performances de façon linéaire .
Depuis peu, on sait que la MB Big-Bang de MSI intègrera une puce Hydra . Mais, mauvaises langues oblige, certains ont immédiatement rappliqué en disant que ce n'était qu'un contrôleur PCI-Express supplémentaire tout ce qu'il y a de plus banal . Un nForce 200 like, quoi . Hé bien, ils avaient tout faux !
 
http://www.pcinpact.com/actu/news/ [...] -mixte.htm
 
A son IDF, l'équipe de PCI a pu voir en action la fameuse Big-Bang de MSI . Et, d'après eux, elle peut effectivement faire fonctionner une Radeon et une GeForce en même temps, sur des applications OpenGL ou Direct3D . Apparemment, ce mode hybride sera disponible pour les possesseurs de la Big-Bang via une MàJ de pilotes . D'autres annonces concernant la puce Hydra devraient également être faites ultérieurement, sans plus de précisions .
 
Comment vont réagir ATi et nVidia à cet affront, qui est de combiner leurs solutions multi-GPU propriétaires respectives ?
Affaire à suivre !

mood
Publicité
Posté le 23-09-2009 à 12:30:26  profilanswer
 

n°7132898
marllt2
Posté le 25-09-2009 à 04:08:13  profilanswer
 

Hum, et pas moyen d'utiliser une carte AMD pour le rendu, et une nVidia pour le PhysX ? [:gratgrat]


Message édité par marllt2 le 25-09-2009 à 04:08:25
n°7133187
BIERMAN
§¤§ 19 years of HFR sanity §¤§
Posté le 25-09-2009 à 11:21:43  profilanswer
 

La solution passera peut-être par la puce Hydra 200 de LUCID
Déjà présente sur la MSI P55 Big Bang
EDIT: dispo d'ici 30 jours => http://www.anandtech.com/video/sho [...] i=3646&p=1
/!\ Windows Sept nécessaire pour coupler 1nVidia & 1ATI!
 
Version HFR => http://www.hardware.fr/news/imprimer/10442/ :d


Message édité par BIERMAN le 25-09-2009 à 16:53:35

---------------
▬© Base CBR15 ▬© CABASSE ▬© CM AM3+ 100% &- ▬© o/c C2D&Q i7 matuer†
n°7137557
Zack38
Posté le 28-09-2009 à 11:06:59  profilanswer
 

http://www.presence-pc.com/actuali [...] eur-36578/
 

Citation :

Des ordinateurs aux excitons
 
Des physicistes de l’Université de San Diego ont développé un circuit intégré utilisant des excitons et capable de fonctionner à une température qu’il est possible d’obtenir avec de l’azote liquide.
Excitons
 
Les excitons sont des quasi-particules. Il s’agit de deux électrons négatifs et un trou positif crée par de la lumière dans un semiconducteur composé d’arséniure de gallium. Lié par les forces de Coulomb, lorsque le trou et les électrons se rencontrent, l’exciton se désintègre, relâchant son énergie sous la forme d’un flash de lumière. Ce n’est pas la première fois que des chercheurs parlent d’un ordinateur aux excitons, mais auparavant, ce genre de puce ne fonctionnait qu’à 1,5 K (-271,65° C), ce qui est plus froid que l’hyperespace et seulement possible en laboratoire.
Un petit pas pour l’homme, quid de l’humanité ?
 
Les scientifiques américains ont néanmoins réussi à créer une puce pouvant fonctionner à 125 K (-148,15° C). Le but est de continuer pour avoir une puce aux excitons capable de fonctionner à température ambiante. Nous sommes encore très loin d’une commercialisation qui pourrait ne jamais arriver, mais une chose est sûre, de plus en plus de têtes se penchent sur l’utilisation de méthodes optiques pour améliorer les communications numériques et les excitons sont équivalents au Saint Graal. Il n’y a, en effet, plus besoin de perdre du temps à convertir un signal électrique en un signal optique puisque l’excitons le fait automatiquement.

n°7139031
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 29-09-2009 à 10:45:18  profilanswer
 

Aprés le 22nm, intel se dirigera vers le 15 ou 16nm en 2013
 

Citation :

Last week at IDF, Intel did mention that they're aiming at 15nm after 22nm. Global foundries, AMD’s only CPU manufacturing hope is also planning to transition to production of 22nm chips in 2012 whereas probably two years later, they plan to go after 15nm.
 
Intel didn’t mention at IDF that 15 or 16nm, how some scientist call this process, is still under development and that not even the manufacturing tools are ready, but it all indicates that it should be ready by late 2013.
 
You get this date if you follow Intel tick-tock strategy and if you have in mind that in Q4 2009 Intel starts production of 32nm CPUs, two years later in Q4 2011 they should be ready with 22nm and two years after than in Q4 2013 they should be ready to start with 15nm.  
 
Intel needs 22nm and 15 nano chips for system-on-a-chip market, hanheld, consumer devices and of course many netbooks, notebooks, desktops and servers. On 15nm you should be able to have 2X transistor numbers than on 32nm with same or lower TDP. This is what semi conductor industry is all about.

http://www.fudzilla.com/content/view/15719/1/


---------------
~ Sondage sur un lieu d'apprentissage de l'autonomisme ~ Camping la ressource ; Le survivalisme accessible ~
n°7140214
marllt2
Posté le 30-09-2009 à 02:57:24  profilanswer
 

La dernière phrase ne gêne que moi ? :o

n°7140217
Gigathlon
Quad-neurones natif
Posté le 30-09-2009 à 03:06:35  profilanswer
 

Non, il sait pu compter :o

n°7141103
Zack38
Posté le 30-09-2009 à 18:06:07  profilanswer
 

Record : 100 pétabits/s.km sur fibre optique
 

Citation :

Les chercheurs du Bell Labs, l'unité de recherche du groupe Alcatel Lucent, de Villarceaux (Essonne) ont établi un nouveau record de vitesse pour une transmission sur fibre optique : ils ont réussi à maintenir une connexion à 15,5 Tbit/s sur une distance de 7000 kilomètres. Le record ainsi obtenu peut être exprimé en bits par seconde.kilomètre, « une unité de mesure standard en transmission optique à haute vitesse ».
 
Pour remettre cette information dans son contexte, 15,5 Tbit/s c'est suffisant pour transmettre à peu près 400 DVD simple couche en une seconde. C'est aussi suffisant pour remplir le plus gros disque dur existant aujourd'hui (2 To) en une seconde. 100 pétabits/s.km c'est encore un débit dix fois supérieur à celui des câbles sous-marins installés aujourd'hui. Bref un joli record qui vient battre à plates coutures celui établi en 2006 par l'opérateur japonais NTT : les chercheurs avaient alors certes atteint 14 Tbit/s, mais sur une distance de 160 km seulement.  
 
Pour l'obtenir, Alcatel Lucent a utilisé 155 lasers émettant chacun sur une longueur d'onde (chaque laser ayant un débit individuel de 100 Gigabits/s). Les 155 signaux simultanés étaient multiplexés via la technique WDM (Wavelength Division Multiplexing). Et dire que dans quelques années cette bande passante ahurissante sera tout juste suffisante pour nous permettre de regarder les dernières vidéos 3D en quad HD buzzant sur le web...


 
http://www.presence-pc.com/actuali [...] s-s-36611/

n°7150783
Zack38
Posté le 06-10-2009 à 19:26:15  profilanswer
 

Windows 8 : vers une compatibilité 128 bits pour le noyau ?
 

Citation :

En dépit de bien des critiques, Vista était une version majeure de Windows. S’il y a des différences flagrantes de critiques entre lui et Windows 7, ce dernier repose pourtant sur les fondations introduites par Vista dès janvier 2007.  
 
 
Windows 7
 
Cependant, le sens de l’histoire se contorsionne : ce même Windows 7 aurait dû être logiquement une version mineure pour respecter l’alternance chère à Microsoft. Or, voilà que l’éditeur évoque là encore un système majeur ! Quid de Windows 8 alors ?
 
Le mot « mineur » n’a finalement aucune importance pour les ventes ou l’effet produit sur le grand public : Windows XP était une version mineure ! Mais Windows 8 ne peut être que majeur, Microsoft ayant laissé plusieurs fois entendre que des renouvellements technologiques importants seraient entrepris.
 
Windows 8 représente maintenant le premier système de Microsoft à partir duquel seul le 64 bits devrait continuer. Déjà avec Windows 7, les deux DVD sont fournis systématiquement dans toutes les éditions et Office 2010 sera lui aussi disponible en 64 bits. Mais une petite information a filtré montrant que Microsoft travaillait déjà sur le… 128 bits.
 
Ce n’est pas réellement une information qui était attendue, et pour cause : le 64 bits s’impose doucement depuis des années et il en faudra encore quelques autres pour que l’on puisse le considérer comme l’architecture unique dans le monde des PC. Mais sur le profil LinkedIn de Robert Morgan, qui travaille à la section recherche et développement chez Microsoft, on peut lire ceci :
 
« Working in high security department for research and development involving strategic planning for medium and longterm projects. Research & Development projects including 128bit architecture compatibility with the Windows 8 kernel and Windows 9 project plan. Forming relationships with major partners: Intel, AMD, HP and IBM. »
 
En clair, les projets de la section incluent la compatibilité avec le 128 bits pour le noyau de Windows 8 et dans les plans en gestation pour Windows 9. Ce travail passerait par des relations avec Intel, AMD, HP et IBM. Et puisque l’on parle d’AMD, un message sur le profil du même Robert Morgan a quelque peu intrigué :
 
http://static.pcinpact.com/images/bd/news/76222-win8-robert-morgan.png
 
À la mention du 128 bits d’AMD, pas besoin de trop s’énerver sur le sujet : on ne sait absolument pas de quoi il s’agit. Le fondeur n’a jamais mentionné une telle architecture, et il ne s’agit d’ailleurs peut-être même pas d’une architecture processeur.
 
Rédigée par le mardi 06 octobre 2009 à 17h08 (11647 lectures)  
Source de l'INformation : MS Kitchen


 
http://www.pcinpact.com/actu/news/ [...] 8-bits.htm
 
Hum ... des CPU 64/128bit en 2012 ??! ...  :sweat:  Waaah ...  :ouch:

n°7151318
marllt2
Posté le 07-10-2009 à 03:27:05  profilanswer
 

Hum, AMD Bulldozer inside ?

mood
Publicité
Posté le 07-10-2009 à 03:27:05  profilanswer
 

n°7151340
Gigathlon
Quad-neurones natif
Posté le 07-10-2009 à 07:17:10  profilanswer
 

J'ai un doute, le marché desktop n'est pas encore prêt pour le 128bits, d'ailleurs c'est un peu de la faute de Micro$oft avec leurs versions 32bits de Windows.
 
Là il serait plus question d'un noyau extensible vers le 128bits sans problème de compatibilité, contrairement au noyau de Vista/Seven, et donc une anticipation de cette évolution.

Message cité 1 fois
Message édité par Gigathlon le 07-10-2009 à 07:18:38
n°7151804
Zack38
Posté le 07-10-2009 à 13:40:03  profilanswer
 

Bref, on pourra peut-être compter sur le 128bit sur Windows 9 ...
A quand le 256bit ?  :lol:

n°7152385
Zack38
Posté le 07-10-2009 à 18:26:10  profilanswer
 

http://www.pcinpact.com/actu/news/ [...] bation.htm
 

Citation :

Windows 7 sera officiellement disponible le 22 octobre, et si le système devrait redorer le blason de l’éditeur dans le secteur des systèmes d’exploitation, ce n’est pas lui qui va chambouler le paysage logiciel puisqu'il s'appuie sur les mêmes bases que Vista.  
 
On sait que Windows 8 est déjà en préparation, et que les plans de Windows 9 sont également à l’étude. Autour des Windows, on entend différents noms de code : Singularity, Midori, BarrelFish ou encore Helios. Et voilà donc Midori qui refait parler de lui, les choses ayant l’air de se concrétiser autour de ce nom. Parlons donc un peu du futur de Microsoft.
 
 
Windows 7
 
Windows 8 devrait arriver dans environ trois ans. S’il est encore un peu tôt pour publier une liste des éléments qui seront nouveaux ou modifiés, on sait maintenant qu’un changement de l’interface utilisateur est à prévoir. D’après différentes informations tirées notamment des profils LinkedIn des employés affectés au projet, la réflexion sur cette interface doit porter ses fruits sur les dix prochaines années. On peut donc imaginer que les changements iront plus loin qu’un simple thème. De plus, un travail particulier porte sur la création d’applications distribuées.
 
Midori : un futur remplaçant de Windows ou d'abord un système parallèle ?
 
Au-delà de Windows 7, seul « 8 » est un projet que l’on attend concrètement. Microsoft travaille sur d’autres projets, mais leur contenu et leurs applications directes sont beaucoup plus floues.  
 
L’un de ces projets se nomme donc Midori - nous en avons parlé plusieurs fois dans nos colonnes : On sait que Midori est en « incubation », ce qui signifie que ce système d’exploitation est sorti de Microsoft Research, mais qu’il n’est pas pour autant intégré dans un circuit officiel. Et pourtant, au vu des personnes travaillant sur le projet qui ont été révélées récemment, difficile de ne pas se dire que Microsoft est très sérieux au sujet de ce système.
 
Qu’est-ce que Midori ? Il s’agit donc d’un système, mais qui n’a aucun lien avec Windows. Ses racines viennent de Singularty, un OS développé au sein de Microsoft Research et qui proposait de repartir sur des bases entièrement neuves, en utilisant presque uniquement du code C# managé ainsi qu’un compilateur particulier (Bartok). Midori s’appuie sur ces fondations et a pour vocation d’être un système distribué et concurrent.
 
Une équipe « de choc »
 
L’homme qui dirige le projet s’appelle Eric Rudder, vice-président chez Microsoft de la stratégie technologique. Rob Jellinghaus, un architecte logiciel travaillant également sur Midori, a publié sur son blog une liste de développeurs avec qui il travaille :  
Daniel Lehenbauer
Pavel Curtis
Jonathan Shapiro
Ravi Pandya
Dean Tribble
Chris Brumme
Bjarne Steensgard
David Tarditi
Tanj Bennett
Joe Duffy
Leif Kornstaedt
Or, ceux qui suivent l’actualité de très près côté Microsoft auront peut-être reconnu certains noms. Daniel Lehenbauer par exemple est un développeur de longue date chez Microsoft. Il indique, au sujet de ce fameux projet en incubation chez Microsoft, travailler sur une approche radicalement différente d’une plateforme interface/graphismes qui garantirait la sécurité, la réactivité et l’utilisation des GPU modernes et du « manycore » (présence de cœurs multiples d’exécution). Chris Brumme, autre exemple, est l’un des architectes principaux du CLR (Common Language Runtime) de l’environnement .NET. Autres exemples : Bjarne Steensgard a travaillé sur le compilateur Bartok, tandis que David Tarditi est un chercheur qui faisait partie de l’équipe de Singularity.
 
Si Midori a l’air de représenter de plus en plus le futur des systèmes d’exploitation chez Microsoft, il y a peu de chances que ce système apparaisse d’un coup pour remplacer Windows. Microsoft travaille sur d’autres projets, notamment MinSafe et RedHawk, qui semblent des précurseurs de Midori et qui pourraient trouver leur chemin dans Windows 8, au moins en partie, comme l’estime Mary-Jo Foley de ZDnet, une experte en technologies Microsoft.

n°7153013
marllt2
Posté le 08-10-2009 à 02:19:48  profilanswer
 

Gigathlon a écrit :

J'ai un doute, le marché desktop n'est pas encore prêt pour le 128bits, d'ailleurs c'est un peu de la faute de Micro$oft avec leurs versions 32bits de Windows.
 
Là il serait plus question d'un noyau extensible vers le 128bits sans problème de compatibilité, contrairement au noyau de Vista/Seven, et donc une anticipation de cette évolution.


D'ailleurs, quel avantage pratique au 128 bits vs le 64 bits ?
 
Au moins, le 64 bits permettait de gérer > 4 Go (sur les OS grand public).

n°7153361
Gigathlon
Quad-neurones natif
Posté le 08-10-2009 à 11:04:48  profilanswer
 

Il y a toujours des avantages, ne serait-ce que des instructions 64bits "dual ported" (MAD/FMA?).
 
Reste que ça n'a pas grand intérêt quand 64bits permettent déjà de dépasser le To de RAM.

n°7157393
Gigathlon
Quad-neurones natif
Posté le 11-10-2009 à 09:41:38  profilanswer
 

Tiens, sinon je suis tombé sur un sujet sur le forum B3D qui mène à un blog dont l'auteur spécule sur ce que serait l'archi Bulldozer... et je dois dire que c'est assez intéressant.
 
En gros, chaque "core" serait un CPU x86 classique, mais sans FPU, cette dernière étant une FPU SIMD partagée entre les cores, à la manière du SMT/HT.
 
http://data5.blog.de/media/130/3830130_eade2e521a_m.png
 
Ca me semble pas mal du tout en dehors du fait qu'on ait souvent à gérer une priorité "quasi temps réel" sur un CPU, et accessoirement les SIMD sur le schéma sont trop petits pour avoir un réel intérêt.
 
Reste à voir si cette spéculation se révèle exacte, mais c'est bien proche du modèle que devront suivre les CPU à l'avenir: du SMT visible au niveau de l'OS, éventuellement 1 ou 2 "cores" pour l'exécution "temps-réel" et un gros amas d'unités de calcul "façon GPU".

n°7157689
Zack38
Posté le 11-10-2009 à 14:20:16  profilanswer
 

Intéressant ...  [:figti]  
Ca fait longtemps qu'on nous parle de CPU tout-en-un, avec des unités vectorielles pour faire du calcul massif et parallélisé .
Ce Bulldozer pourrait être un bon début ... sur serveur, malheureusement, car seuls les Opteron pourront profiter de telles améliorations si elles sont effectives . Le grand public, ce n'est pas pour tout de suite . Par exemple, Intel a prévu de faire un genre de truc comme ça pour 2012, avec son architecture Haswell (l'après-Ivy Bridge) . En gros, ce sera un CPU avec Larrabee dans le même package .

n°7157744
Gigathlon
Quad-neurones natif
Posté le 11-10-2009 à 14:58:14  profilanswer
 

C'est très sympa en tout cas oui, car ça permettrait même d'avoir un boost sur des applis mono-thread si c'est bien étudié.

n°7157815
Zack38
Posté le 11-10-2009 à 15:38:20  profilanswer
 

Gigathlon a écrit :

C'est très sympa en tout cas oui, car ça permettrait même d'avoir un boost sur des applis mono-thread si c'est bien étudié.


 
Non, je pense qu'il faudra impérativement que les softs soient conçus pour utiliser de telles unités vectorielles ou soient contraints de l'utiliser par un soft tiers . Le hardware ne fait pas tout ...  :o

n°7157878
Gigathlon
Quad-neurones natif
Posté le 11-10-2009 à 16:16:23  profilanswer
 

Zack38 a écrit :

Non, je pense qu'il faudra impérativement que les softs soient conçus pour utiliser de telles unités vectorielles ou soient contraints de l'utiliser par un soft tiers . Le hardware ne fait pas tout ...  :o


Ca dépend de la forme que prennent les CPU, car le principal problème restera la dépendance des instructions.

n°7159124
BIERMAN
§¤§ 19 years of HFR sanity §¤§
Posté le 12-10-2009 à 13:59:29  profilanswer
 

Modélisation de l''ordinateur (portable :o) de demain, baptisé 'ROLLTOP' => http://www.orkin-design.de/design/ [...] ample.html

Message cité 1 fois
Message édité par BIERMAN le 12-10-2009 à 14:01:56

---------------
▬© Base CBR15 ▬© CABASSE ▬© CM AM3+ 100% &- ▬© o/c C2D&Q i7 matuer†
n°7159135
Gigathlon
Quad-neurones natif
Posté le 12-10-2009 à 14:07:18  profilanswer
 

Mwai, on peut oublier le concept du clavier tant qu'on y est, et utiliser un clavier virtuel affiché sur écran tactile :o
 
Par contre le coup de l'alim planquée au milieu du portable c'est une bonne idée! [:dawa]

n°7159141
BIERMAN
§¤§ 19 years of HFR sanity §¤§
Posté le 12-10-2009 à 14:11:22  profilanswer
 

Ce machin fait tout ça...


---------------
▬© Base CBR15 ▬© CABASSE ▬© CM AM3+ 100% &- ▬© o/c C2D&Q i7 matuer†
n°7160476
BIERMAN
§¤§ 19 years of HFR sanity §¤§
Posté le 13-10-2009 à 14:18:52  profilanswer
 

INTEL > le "resilient processor", qui adapte tout seul ses fréquences & tensions grâce à des dispositifs de détection d'erreurs multiples => http://www.comptoir-hardware.com/a [...] lages.html
 
http://free0.hiboox.com/images/4209/diapof53ffaf1af685eeeb50829687a07e2f1.png?0

Message cité 1 fois
Message édité par BIERMAN le 13-10-2009 à 14:19:22

---------------
▬© Base CBR15 ▬© CABASSE ▬© CM AM3+ 100% &- ▬© o/c C2D&Q i7 matuer†
n°7164343
Zack38
Posté le 15-10-2009 à 21:21:50  profilanswer
 

BIERMAN a écrit :

Modélisation de l''ordinateur (portable :o) de demain, baptisé 'ROLLTOP' => http://www.orkin-design.de/design/ [...] ample.html


 
Waah ...  :ouch:  Puissant ! Mais c'est pas vraiment pour tout de suite ...  :D  
 

BIERMAN a écrit :

INTEL > le "resilient processor", qui adapte tout seul ses fréquences & tensions grâce à des dispositifs de détection d'erreurs multiples => http://www.comptoir-hardware.com/a [...] lages.html
 
http://free0.hiboox.com/images/420 [...] e2f1.png?0


 
Intéressant . Surtout pour les portables, qui ont besoin d'autonomie . Peut-être que ça passera après des laptop aux desktop ? Un petit peu comme le Turbo d'Intel ? ...

n°7166146
marllt2
Posté le 17-10-2009 à 07:53:44  profilanswer
 

http://www.semiaccurate.com/2009/1 [...] cess-tech/
 

Citation :

Insiders had been telling us that the TSMC 32nm process was in deep trouble, and 22nm wasn't looking good either. Then one day, poof, things got better. This quite remarkable turnaround is due to one thing, Intel.


 :pt1cable:


Message édité par marllt2 le 17-10-2009 à 07:56:11
n°7166148
m16
Posté le 17-10-2009 à 08:01:13  profilanswer
 

on se demande en quoi intel a pu aider la gravure en 32 et 22 nm.
ya des miracles, mais faut pas pousser quand meme.

n°7166217
Gigathlon
Quad-neurones natif
Posté le 17-10-2009 à 10:23:18  profilanswer
 

Surtout qu'on peut se demander si c'est pas tout simplement leur 40nm qui leur a permis de corriger des défauts qui auraient été encore pire sur les process suivants... ou du flan.
 
L'hypothèse des corrections sur le 40nm transposables au 32nm est pour le moment la plus cohérente.

n°7166415
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 17-10-2009 à 12:54:46  profilanswer
 

Maintenant ce qu'il reste à savoir c'est quand le 32nm "opérationnel" entrera en production pour les GPU... et le rendement sur des puces HDG


---------------
~ Sondage sur un lieu d'apprentissage de l'autonomisme ~ Camping la ressource ; Le survivalisme accessible ~
n°7166676
Zack38
Posté le 17-10-2009 à 15:17:46  profilanswer
 

super_newbie_pro a écrit :

Maintenant ce qu'il reste à savoir c'est quand le 32nm "opérationnel" entrera en production pour les GPU... et le rendement sur des puces HDG


 
Ah, tu y crois, toi, à ce process 32nm ?
Il y a MEI qui refuse de me croire sur son existence ici !
 
Faites-lui entendre raison !

n°7174467
amin64
BYourLord
Posté le 22-10-2009 à 20:08:59  profilanswer
 

tout ca c'est bien beau mais sa n'impliquera pas une révolution dans le monde informatique.. car soit ils sont reservé a des utilisateurs spécifiques, qu'ils nous atteindrons progressivement dans l'echelle des technologies donc sa sera vu comme des simple améliorations..
 
Comme véritable révolution je vois les ordinateurs quantiques, ou les mémoire a base de grosse molécules organiques.. si vous avez des informations recentes sur ces avancé je serais très intéresser. :)

n°7174970
marllt2
Posté le 23-10-2009 à 04:55:45  profilanswer
 

http://www.eetimes.com/news/design [...] 220700486#
 

Citation :

SAN JOSE, Calif. — Intel Corp.'s decision to wait until 2011 to support USB 3.0 in PC chipsets will put mainstream adoption of the interconnect on hold for a year, said a senior technology manager at a top tier PC maker.

n°7175062
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 23-10-2009 à 09:34:54  profilanswer
 
n°7185071
Zack38
Posté le 29-10-2009 à 13:36:57  profilanswer
 

Tilera lance Tile-GX, une puce à 100 coeurs !
 
La société Tilera dévoile une gamme de processeurs présentés comme des concurrents de l'architecture Nehalem d'Intel, qui pourront comporter jusqu'à 100 cœurs.  
 
Après NVidia, c'est Tilera qui s'engage dans la course à la capacité de calcul. Un sérieux coup d'envoi qui contraste avec l'actualité moribonde du projet Larabee d'Intel, présenté en 2008 comme le tueur de GPU, prévu pour exploser en 2010. Après avoir longuement combattu à coup de MHz et GHz, les fondeurs de processeurs changent d'artillerie pour s'affronter sur le terrain du nombre de cœurs. En 2003 les chercheurs des laboratoires d'Intel affirmaient, sur la foi en la loi de Moore, que le pic technologique des CPU serait atteint en 2018. Ce constat prenait principalement en compte les hypothétiques limitations de la finesse de gravure des futurs processeurs.  
 
Un microprocesseur se compose de millions de transistors, chacun traitant une information binaire. A l'heure actuelle, le nombre de ces transistors dépend de la précision avec laquelle ils peuvent être gravés sur la galette de silicium qu'est le CPU. En quelques décennies, décennies, les fondeurs sont passés au micromètre pour arriver à l'échelle nanométrique. Actuellement, de nombreux processeurs du commerce sont fabriqués avec une finesse de l'ordre de 40 à 45 nanomètres (nm). D'ici 2011, les 32 nm devraient être atteints selon AMD. Plus optimistes, certains prévoient des processeurs dotés d'une finesse de gravure de l'ordre de 22 nm !  
 
Diviser pour mieux régner  
 
En sus de cette course aux nanomètres, l'innovation et la commercialisation des processeurs multi-cœurs ont fait un énorme bon ces dernières années. Le fondeur le plus populaire dans le domaine est sans nul doute Intel avec ses doubles et quadruples cœurs. A l'image de la division cellulaire, la multiplication des cœurs semble ne pas être en passe de s'arrêter. Et pour cause, dans ces CPU, la fréquence annoncée est valable pour chaque coeur qui se voit plus ou moins sollicité suivant la tâche, le gain en performances est éminemment perceptible. Pour les applications, cette multiplication de cœurs permet un calcul parallèle extrêmement utile dans des simulations vectorielles telles que le ray-tracing en 3D (rendu photo-réaliste). Les applications sont vastes et c'est l'industrie du serveur qui profite le plus de l'évolution de ces technologies.  
 
Des membres du MIT s'inscrivent dans cette mouvance et ont fondé la société Tilera en 2004, pour commercialiser en août 2007 un processeur doté de 64 cœurs sous le nom de Tile64. Gravée à 90 nm pour la première version puis à 45 nm, la puce rompt avec le jeu d'instructions X86 (mis en place par Intel) et se base sur l'architecture Tile mise au point par la jeune firme (tile signifiant tuile), le fondeur présente sa technologie comme un agencement de 64 tuiles, comprenant chacune un cœur indépendant, dont l'une est dédiée au routage des informations pour permettre une communication entre ses comparses. A l'image des CPU classiques, chaque coeur possède ses propres mémoires cache L1 et L2. Une mémoire cache virtuelle commune aux 64 cœurs du microprocesseur, appelée L3, rassemble les données traitées. Dans chaque tuile peut s'exécuter un système d'exploitation et, à l'inverse, plusieurs d'entre elles peuvent s'organiser pour gérer en parallèle un système à tâches multiples.  
 
Schéma type de l'architecture Tile, dans le cas des Tile-GX le contrôleur de mémoire sera compatible avec la DDR3. © Tilera
 
Le bébé de Tilera s'annonce comme un outil puissant dans le domaine de la virtualisation et des calculs parallèles et une nouvelle gamme est en passe de lui fournir un successeur. Le nouveau CPU fait partie d'une nouvelle génération appelée Tile-GX. On y trouve des processeurs comportant de 16 à 100 cœurs cadencés à 900 et 1,5 GHz, contre 0,6 et 0,9 GHz pour le Tile64. Le tout bénéficie d'une finesse de gravure de 40 nm pour la première génération. Le fabricant annonce une consommation oscillant entre 5 et 55 watts. Toujours selon Tilera, cette consommation permet d'atteindre proportionnellement une puissance de calcul, par watt, dix fois supérieure aux processeurs d'Intel, basés sur l'architecture Nehalem de ses solutions serveurs. La guerre des CPU est en passe d'accueillir un nouveau challenger dans ses rangs. Intel et AMD ne sont plus seuls dans l'univers des microprocesseurs centraux.  
 
Reste aussi NVidia et son projet Fermi, qui se pose comme un opposant aux reins solides. Le Larrabee, véritable Arlésienne d'Intel, est lui aussi prometteur. Tilera s'est très vite implanté dans le monde du libre. Cependant, il faudra s'armer de patience et suivre les résultats de ses produits sur le terrain.
 
La source

n°7190040
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 02-11-2009 à 10:13:56  profilanswer
 

TSMC investit 6 milliards dans 2 usines qui seront les pièces maitresses des futurs process 28, 22 et 16nm
 
TSMC to invest six billion USD in two "GigaFabs"
10/29/2009 by: Theo Valich - Get more from this author
 
Before the world economy went into the deepest dive since the great depression, TSMC announced their plans to invest 10 billion dollars into their manufacturing process "in order to beat Intel".
 
Yes, TSMC was gunning high on the success of their 65nm and 55nm processes, capable of producing chips with much more transistors that AMD or Intel were producing, and the company wanted to set the pace for 32nm ["We are going to ship first 32nm chip before others do" - statement by Dr. Morris Chang, TSMC Chairman, 2008], 28nm half-node and 22nm. The economic crisis had a hard impact on plans, but TSMC came out with their plan earlier today.
 
According to the company, TSMC will invest up to six billion dollars in two foundries [TSMC likes to call them GigaFabs]- Fab 12, located in Hsinchu Science Park in northern Taiwan and Fab 14, located in Tainan Science Park in southern Taiwan. Do note that Fab 12 will receive lion's share of six billion investments - with up to five billion dollars going into this facility, considered to be TSMC's flagship facility [R&D Fab]. According to information we have at hand, Fab 12 is serving for 45/40nm, 28nm, 22nm and 16nm processes.
 
These 300mm wafer facilities are planned to output 35,000 wspm [wafer starts per month] each by the end of 2011. This would bring up the capacity of up to 840.000 wspm, or a proper answer to GlobalFoundries launch of Fab 2 M1 in Saratoga County, NY [opening in 2012, 35.000 wspm by the end of 2013].
 
source : http://www.brightsideofnews.com/ne [...] afabs.aspx


---------------
~ Sondage sur un lieu d'apprentissage de l'autonomisme ~ Camping la ressource ; Le survivalisme accessible ~
n°7190056
Gigathlon
Quad-neurones natif
Posté le 02-11-2009 à 10:38:33  profilanswer
 

Mouais... on attend toujours de voir une vraie prod de 40nm chez TSMC, car bon, actuellement GF fait carrément mieux sur son 45nm SOI et aussi bien Intel qu'eux vont attaquer le 32nm.
 
A en croire les roadmaps de GF le 28nm pourrait même débarquer dès fin 2010 avec la 3e vague de production.

n°7190065
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 02-11-2009 à 10:45:20  profilanswer
 

D'aprés les graphs mad in AMD que j'ai vu pas plus tard que ce matin mais que je n'arrive pas à retrouver parmi la pétoirade de sites de news, on devrait passer en 2011 à du 32nm pour les GPU, nom de code "islands". Le 28nm semble encore bien loin. 2010 semble être l'année de la consolidation du 40nm pour les GPU et fin 2010 la seconde génération de puces 40nm.
 
EDIT ; retrouvé !
 
http://resources.vr-zone.com//uploads/7970/019.jpg
 
source : http://vr-zone.com/articles/amd-s- [...] l?doc=7970

Message cité 2 fois
Message édité par super_newbie_pro le 02-11-2009 à 10:49:29

---------------
~ Sondage sur un lieu d'apprentissage de l'autonomisme ~ Camping la ressource ; Le survivalisme accessible ~
n°7190279
BIERMAN
§¤§ 19 years of HFR sanity §¤§
Posté le 02-11-2009 à 13:52:05  profilanswer
 

super_newbie_pro > http://www.comptoir-hardware.com/a [...] art-i.html (en français :d)


Message édité par BIERMAN le 02-11-2009 à 13:52:43

---------------
▬© Base CBR15 ▬© CABASSE ▬© CM AM3+ 100% &- ▬© o/c C2D&Q i7 matuer†
n°7190461
Gigathlon
Quad-neurones natif
Posté le 02-11-2009 à 16:13:54  profilanswer
 

super_newbie_pro a écrit :

D'aprés les graphs mad in AMD que j'ai vu pas plus tard que ce matin mais que je n'arrive pas à retrouver parmi la pétoirade de sites de news, on devrait passer en 2011 à du 32nm pour les GPU, nom de code "islands". Le 28nm semble encore bien loin. 2010 semble être l'année de la consolidation du 40nm pour les GPU et fin 2010 la seconde génération de puces 40nm.
 
EDIT ; retrouvé !
 
http://resources.vr-zone.com//uploads/7970/019.jpg
 
source : http://vr-zone.com/articles/amd-s- [...] l?doc=7970


En fait il y a une mauvaise interprétation: fin 2010 ça sera clairement pu du 40nm :o
 
Ca sera soit du 32nm comme tend à l'indiquer le slide d'AMD (plateforme 2011 = GPU de fin 2010), soit du 28nm (mais ça me semble optimiste, peut-être pour l'entrée de gamme).
 
On aura une meilleure vision de la chose dans quelques semaines avec la sortie des Redwood et Cedar, si c'est du 32nm (pourquoi aucune mention de process sur la plateforme 2010?) on pourra tabler sur une gamme 32/28nm pour 2011.
 
Au passage, la roadmap confirme que Llano et Zambezi sont des CPU basés sur la même architecture que les Phenom II.

Message cité 1 fois
Message édité par Gigathlon le 02-11-2009 à 16:17:59
n°7190782
marllt2
Posté le 02-11-2009 à 19:38:50  profilanswer
 

Gigathlon a écrit :

Au passage, la roadmap confirme que Llano et Zambezi sont des CPU basés sur la même architecture que les Phenom II.


 :??:
 

super_newbie_pro a écrit :

on devrait passer en 2011 à du 32nm pour les GPU, nom de code "islands".


Hum, c'est les Hecton machin truc Grecs ? Bref les R900 ?

Message cité 1 fois
Message édité par marllt2 le 02-11-2009 à 19:40:34
n°7190872
Gigathlon
Quad-neurones natif
Posté le 02-11-2009 à 20:17:59  profilanswer
 


Simple:

Citation :

"Stars" CPU cores

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18

Aller à :
Ajouter une réponse
 

Sujets relatifs
News PC quelques questionPanne a8nsli deluxe (avis sur la situation)
ma news moboAvis - Conseils sur news Config...
news seagate 7200.10 250go qui a disparu du bios...[RCH/ACH]conseil achat news pc pour joueur
PC Horizontal /Vertical--> Marche / marche pas ..la suite[Topic unique] HD 3870x2
News configplate-forme STAFF IPX de AFFIXE Technologies
Plus de sujets relatifs à : News - Technologies, procédés, découvertes, actualité et situation


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR