Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1707 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  279  280  281  ..  582  583  584  585  586  587
Auteur Sujet :

Le réseau à la maison RJ45@HOME

n°998719
Delivereat​h
Posté le 14-11-2017 à 15:33:38  profilanswer
 

Reprise du message précédent :
On est bien d'accord que le besoin est très faible.

 

Ca ne change rien au fait que ça peut être un achat pertinent même pour un particulier selon l'utilisation. Pour un vidéaste amateur qui fait du traitement, les fichiers se comptent en plusieurs centaines de GB pour la moindre heure d'enregistrement. S'il souhaite faire des backup de son travail, je ne trouve pas injustifié d'investir 250€ pour ne pas attendre plusieurs heures à la moindre copie de son travail.

 

Pour les entreprises, effectivement peu de besoin pour du client-serveur. Par contre pour de la communication intra-baie, c'est certainement bien plus courant (sur des supports physiques autres que du 10gbase-t).

 

Après on est sur HFR... Tu peux faire le même commentaire pour à peu près tout le matériel dont on discute ici. Tu trouveras difficilement des CPU à plus de 300€ sur des postes clients en entreprise alors que ça se trouve à la pelle ici, tout comme des cartes graphiques à 600€, etc, etc.


Message édité par Delivereath le 14-11-2017 à 15:33:52
mood
Publicité
Posté le 14-11-2017 à 15:33:38  profilanswer
 

n°998742
MiB75
PSN : MiB_75 - GT : MiB75One
Posté le 14-11-2017 à 17:20:52  profilanswer
 

Le besoin au delà du gbps chez le particulier est quand même très limité aujourd'hui.  
Et quand bien même quelqu'un ferait du montage vidéo, je pense qu'il travaillerait en local, et que le backup pourrait être fait en tâche de fond ou la nuit par exemple, et dans ce cas, je ne suis pas sûr que le 10gbps soit nécessaire.
En plus, le débit d'un disque dur classique ne doit pas être beaucoup au delà du gbps.
Après... chacun fait comme il souhaite... qui peut le plus peut le moins... futur proof... certes.
Moi, je n'ai passé que du Cat6 à la maison, pour limiter le diamètre et la rigidité, vu que j'avais une partie apparente avec plusieurs câbles en parallèle.
Pour un usage familiale standard, ça devrait suffire.


---------------
Feed-back - Ventes Jeux & Hardware
n°998824
grotius
Posté le 14-11-2017 à 23:11:41  profilanswer
 

Si tu as des backup mega lourd, la solution c est peut être aussi d'utiliser une connexion locale, plutôt que mettre ton serveur au grenier. Le problème du giga c est plus la pose que le cable, et le cout de la puce pour le moment.

n°998860
raukoras
Posté le 15-11-2017 à 10:18:34  profilanswer
 

Euh, pour vous je ne sais pas , mais moi quand un de mes user@home fait un transfert, je ne peux pas lui demander de patienter jusqu'au lendemain matin.
 
C'est right here, right now, waf compliant.
 
Le cas classique, c'est sur le créneau 18h-22h avoir un appareil qui regarde Youtube en 1080p, un autre qui sauvegarde ses photos de la journée, de l'échange de films de vacances via torrent, un backup de backup des photos, et du jeu en ligne. Plus éventuellement un film en local.
 
Donc le 100Mbps, je le sature à ces moments précis. Et encore, je n'ai rien en domotique qui vient ajouter un bruit de fond.
 
Etant précisé que les backups normaux se font la nuit.

n°998863
MiB75
PSN : MiB_75 - GT : MiB75One
Posté le 15-11-2017 à 10:22:21  profilanswer
 

Pour saturer le 100mbps, y a pas de doute, moi je pensais que la discussion était sur l'utilité de passer au 10gbps vs 1gbps.


---------------
Feed-back - Ventes Jeux & Hardware
n°998872
actaruspri​nced'eupho​r
Metamorphose !
Posté le 15-11-2017 à 10:38:36  profilanswer
 

C'est sur que vu les tarifs aujourd'hui, avoir un réseau en 100mbps est stupide... autant l'adoption du 1gbps a été vraiment rapide, autant le 10gbps ne décolle pas.

n°998874
Profil sup​primé
Posté le 15-11-2017 à 10:40:25  answer
 

raukoras a écrit :

Euh, pour vous je ne sais pas , mais moi quand un de mes user@home fait un transfert, je ne peux pas lui demander de patienter jusqu'au lendemain matin.

 

C'est right here, right now, waf compliant.

 

Le cas classique, c'est sur le créneau 18h-22h avoir un appareil qui regarde Youtube en 1080p, un autre qui sauvegarde ses photos de la journée, de l'échange de films de vacances via torrent, un backup de backup des photos, et du jeu en ligne. Plus éventuellement un film en local.

 

Donc le 100Mbps, je le sature à ces moments précis. Et encore, je n'ai rien en domotique qui vient ajouter un bruit de fond.

 

Etant précisé que les backups normaux se font la nuit.

 

En fait il y a une méconnaissance profonde de ce qu'est un réseau...

 

Premièrement, saturer un lien 100Mb quand tu regardes une vidéo 1080, tu m'expliques comment tu fais ? L'ensemble des boxes multimédia sont encore en 100Mb et jamais tu ne vas saturer un lien 100Mb même avec des fichiers vidéo très volumineux !

 

Deuxièmement, si toute ta petite famille utilise le réseau à un moment donné, les liens entre le switch et chaque machine ne sera pas saturé, une machine qui joue, une autre qui regarde une video sur Netflix, ce sont deux liens séparés, le seul endroit ou tu vas avoir un goulot d'étranglement c'est au niveau de la connexion Internet et du lien entre ta box et ton switch mais là, la limite ce n'est pas ton lien mais ta ligne internet.

 

Et troisièmement, le backup, on en parle ou pas, parce qu'ici c'est un peu la fête du cliché il me semble...  ON NE BACKUP PAS SUR UN DISQUE ONLINE ! Un vrais backup est offline et/ou décentralisé. Backuper sur un NAS et en cas de soucis type lockers ou orage et c'est adieu à vos datas. Donc même dans ce cas, le réseau OSEF, tu branches un disque local en USB, tu lances un backup.

 

Il faut bien comprendre, qu'il faut réfléchir comment utiliser ses données et son réseau, il est par exemple totalement idiot de travailler sur un NAS quand on manipule des fichiers volumineux, dans ce cas, il faut travailler en local et le cas échéant ranger les fichiers une fois fini sur un NAS. Pour le reste, jamais une famille, avec l'utilisation la plus gourmande des technologies ne va saturer des liens Gb. Le jeux, ça ne bouffe rien, la VOD se contente d'un lien 100Mb vu que de toute façon ta ligne internet ne dépasse pas 100Mb,... ETC.

 

Bref tout ça pour dire qu'avoir du 10Gb sur son réseau, c'est idiot, vu que 99% des usages domestiques sont en ligne et que les connexions internet dépassent rarement les 100Mb... Donc, actuellement, du 1Gb, c'est suffisant et pour un bon moment vu l'arrivée de moyen de compression très efficace (X265 par exemple).

Message cité 2 fois
Message édité par Profil supprimé le 15-11-2017 à 10:45:14
n°998876
eeeinstein
Électricien au CERN
Posté le 15-11-2017 à 10:45:40  profilanswer
 

d'ailleurs pourquoi est-ce que les fabricants de cartes mères ne mettent pas plus de puces 10Gb/s, le prix de la puce est vraiment plus élevé qu'une puce 1 Gb/s ? le design de la carte mère change beaucoup pour intégré cette dite puce ?

Message cité 2 fois
Message édité par eeeinstein le 15-11-2017 à 10:46:25
n°998880
Profil sup​primé
Posté le 15-11-2017 à 10:55:23  answer
 

eeeinstein a écrit :

d'ailleurs pourquoi est-ce que les fabricants de cartes mères ne mettent pas plus de puces 10Gb/s, le prix de la puce est vraiment plus élevé qu'une puce 1 Gb/s ? le design de la carte mère change beaucoup pour intégré cette dite puce ?


 
Non, je pense que ce n'est pas une question de coup, enfin pas complètement.
A mon avis, c'est simplement un soucis de demande, comme le 1Gb est suffisant dans l'immense majorité des cas, on continue à installer ces puces car on les maîtrise bien.
Pour les autres, serveurs et matos pro, ils existes des cartes réseau 10Gb ou fibre.
 
Le 1Gb a été très vite adopté car il apporte un vrais plus dans le transferts de données par rapport au 100Mb. Ce n'est pas pour rien que les seuls machines à en bénéficier par défaut sont soit des ordinateurs, soit les Nas, des machines qui sont utilisées pour du transfert et/ou du stockage de fichiers. Le reste comme les imprimantes réseau, les boxes multimédia, les amplis, les caméras IP,... sont toujours en 100Mb, car pour ce type d'appareil, un lien 100Mb est largement suffisant.

n°998881
Profil sup​primé
Posté le 15-11-2017 à 10:57:57  answer
 

Bigger is better, c'est de la connerie, il faut dimensionner les choses et préférer une technologie correctement dimensionnée que l'on maîtrise à une technologie surdimensionnée qui n'est pas totalement maîtrisée et qui risque de poser plus de soucis qu'autre chose. A quoi bon avoir un lien de folie si on en utilise que 10% ?

mood
Publicité
Posté le 15-11-2017 à 10:57:57  profilanswer
 

n°998898
raukoras
Posté le 15-11-2017 à 11:39:02  profilanswer
 


Il y a surtout bricolage avec les moyens du bord  :sweat:  
Tout est branché sur la box, ne n'ai que 3 équipements derrière un switch dédié (d'ailleurs, c'est le lien switch-box qui coince le plus souvent).
Et tous mes liens sont en Gbps.
 
En tout cas, merci pour le message, vu que je déménage dans pas longtemps, je vais me prendre un peu de temps pour voir comment réorganiser le tout.

n°998920
Delivereat​h
Posté le 15-11-2017 à 13:25:30  profilanswer
 


On se posait la même question il y a moins de 20 ans pour les liens Gb. Si tu attends d'avoir besoin de la techno pour envisager son adoption sur le marché, c'est qu'il est déjà trop tard.

 

Donc le fait qu'on trouve des cartes 10 gbps à 120€ et qu'il y ait des acheteurs, c'est très bien. Ca indique aux fabricants que le besoin n'est pas complètement nul et qu'il peut être intéressant de ne pas abandonner le produit. Intérêt du marché nul = Peu/pas de développement/concurrence = Prix élevé = Intérêt du marché nul...


Message édité par Delivereath le 15-11-2017 à 23:30:59
n°998925
zeql_
Posté le 15-11-2017 à 13:35:50  profilanswer
 

eeeinstein a écrit :

d'ailleurs pourquoi est-ce que les fabricants de cartes mères ne mettent pas plus de puces 10Gb/s, le prix de la puce est vraiment plus élevé qu'une puce 1 Gb/s ? le design de la carte mère change beaucoup pour intégré cette dite puce ?


 
Parce que le 10Gbps existe depuis longtemps mais surtout en optique, via les modules SFP. D'ailleurs dans le monde pro le 10Gbps c'est surtout en optique.
 
Le 10Gbps sur cable cuivre est très récent actuellement il n'y a que trois fournisseurs qui proposent des puces dédiées : Marvell, Broadcom, Intel. Les marques de seconde zone (par exemple Realtek) ne s'y sont pas encore mis. Donc ça reste encore assez élevé en terme de prix. De plus les puces chauffent pas mal, ce qui nécessite souvent un radiateur, donc coût supplémentaire, clairement pour une carte mère grand public c'est un frein (sauf le high-end @ 300+€, mais c'est un volume faible).
 
Il y a néanmoins le développement de modules SFP en 10GBase-T au lieu de l'optique, avec des distances de 10-30m @ 10Gbps et 100m jusqu'à 5Gbps, ce qui est parfait pour les pro, ils remplacent leur modules optiques par un 10GBase-T sans avoir à refaire tout leur réseau. Mais les particuliers n'ont pas de cartes à base de module SFP :)

n°998927
XaTriX
Posté le 15-11-2017 à 13:40:55  profilanswer
 

Y'a pas des chinois en chip 10gbe ?
 
XaT


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°998946
zeql_
Posté le 15-11-2017 à 14:10:49  profilanswer
 

XaTriX a écrit :

Y'a pas des chinois en chip 10gbe ?
 
XaT


 
C'est trop tôt, les chips sont encore dans les premières phases d'optimisation, il y a tout un travail de R&D, ce n'est pas leur point fort. Ils arrivent dans un second temps quand la techno est mature.
 
Y a Aquantia qui fait des chips, mais elle est plutôt sur le marché pro que grand public et je doute qu'elle soit capable de fournir des quantités grand public pour le moment (plusieurs millions de puces par an avec tout le suivi et la qualité qui va avec).
 
Après le développement de la fibre 100Mbps+ chez les particulier devient de plus en plus important mais les box sont toujours en 1Gbps en local et beaucoup de NAS aussi, donc avoir un PC avec un port 10GBase-T c'est un peu inutile pour le moment. Sauf à taper dans des équipements dédiés 10G mais c'est un marché de niche qui se fournit de toute façon en solutions professionnelles  [:spamafote]  
D'autre part l'USB3.0 et le thunderbolt offrent le même débit, ok sur une distance plus courte mais largement suffisante pour une bonne partie des gens.

n°998975
XaTriX
Posté le 15-11-2017 à 15:44:53  profilanswer
 

Sinon 2.5/5Gb
 
XaT


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°998984
Delivereat​h
Posté le 15-11-2017 à 16:04:28  profilanswer
 

XaTriX a écrit :

Sinon 2.5/5Gb

 

XaT


Visiblement les chip qui font le 2.5/5 font aussi du 10gbps.

n°998986
zeql_
Posté le 15-11-2017 à 16:20:46  profilanswer
 

XaTriX a écrit :

Sinon 2.5/5Gb
 
XaT


 
Au-dessus de 1Gbps c'est de l'optique ou coax et quasiment que du module SFP/SFP+/XFP etc. Or la liaison entre chip et module se fait souvent via un lien avec 1 paire RX et 1 paire TX, ce qui veut dire que tu passe des signaux assez elevés en fréquence et que tu ne peux pas te permettre de faire une carte électronique à la va-vite. Le PCIe est du même ordre mais à force de multiplier les liaisons high-speed sur une carte mère, ça ne passera plus avec les technos actuelles (4-6 couches) donc ça coutera plus cher  :o  
 
Donc investis dans des équipements avec modules SFP/SFP+. Ex: Cisco SG350XG-24F 24 ports SFP+ ainsi que la fibre et les modules SFP+ nécessaire et la carte PCI express SFP+ pour le PC. Regarde le prix total, mets-toi en PLS et pleure  :o  
 
Bon après tu peux prendre des modules SFP optique qui peuvent tenir plusieurs km de fibre, si tu veux faire profiter du "wifi" aux voisins  :o

n°998987
rezolan
Posté le 15-11-2017 à 16:30:16  profilanswer
 

Efex a raison, il y a méconnaissance de ce qu'est un réseau et des ce qu'il charrie :
 
un fichier vidéo de 90min pése environ (je dis bien environ, dépend de tout un tas de paramètres divers et avariés) :
- 700Mo pour un DIVX, soit 8mo/min à passer, soit encore 130Ko/seconde... soit une consommation de l'ordre de  1,5Mbps de bande passante.
- 10Go pour un 1080p,soit 114mo/min à passer, soit encore 1,9Mo/seconde... soit une consommation de l'ordre de 20Mbps de bande passante.
- 50Go pour un 4K, soit 569mo/min à passer, soit encore 9,5Mo/seconde... soit une consommation de l'ordre de 95Mbps de bande passante.
 
Donc pour saturer un réseau commuté à 1Gbps, il faut déjà se lever de bonne heure avec un usage normal. La connexion internet dont le débit moyen en France tourne autour de 8Mbps, est saturée bien avant, mais un réseau local, peut aussi transporter du flux... local, il est vrai.
 
Et comme je je disais précédemment, transfert 1Go sur un réseau à 1Gbps prend moins de 15 secondes entre le moment ou on clique et le moment ou c'est terminé... alors  

Citation :

Euh, pour vous je ne sais pas , mais moi quand un de mes user@home fait un transfert, je ne peux pas lui demander de patienter jusqu'au lendemain matin.


est-ce bien défendable ?
 
Par contre, le non développement du 10GbaseT n'est pas une question de maturité, puisque la norme est entérinée depuis 2006 (802.3an), avant même le 10Gbase-LRM (802.3aq, version pour la fibre multimode). Il n'y a tout simplement pas de demande, ça ne représente actuellement que des marchés niches.
 
Je sais bien que je vais encore me faire traiter de "vieux c..", mais mon 1er PC PRO, n'avait pas de disque dur, 32ko de mémoire et mon traitement de texte tenait sur une disquette de 360ko pour ne parler que de ça. Les programmes spatiaux et le concordes ont été développés avec des ordinateurs dont la puissance de calcul ferait marrer n'importe quelle calculatrice scientifique actuelle. Aujourd'hui les programmes sont souvent écris n'importe comment, la gestion des données fait appel à une débauche de place et de puissance plutôt qu'au bon sens. Sans parler écologie, puisque l'ensemble des datacenter dans le monde engloutissent presque 1,5% de électricité mondiale et produisent 2% des gaz à effet de serre. L'ensemble des systèmes informatiques de la planète produit plus de 6% des effet nocifs (des gaz à effet de serre et production de chaleur incontrôlée)...  
 
Loin de moi l'idée de donner des leçons à quiconque, mais on peut toujours vouloir plus et mieux, mais jusqu'à quand ?

Message cité 2 fois
Message édité par rezolan le 15-11-2017 à 16:31:25
n°998988
XaTriX
Posté le 15-11-2017 à 16:32:54  profilanswer
 

Delivereath a écrit :


Visiblement les chip qui font le 2.5/5 font aussi du 10gbps.


loul la configuration batarde: https://geizhals.eu/netgear-ms510-d [...] 09201.html
Funktion: Switch • Typ: Standalone, Rackmount (via Montagewinkel) • Netzwerkanschlüsse: 9x RJ-45, 1x SFP+ • Geschwindigkeiten:  
4x RJ-45 (10/100/1000Base-T),  
2x RJ-45 (100/1000/2.5GBase-T),  
2x RJ-45 (10/100/2.5G/5GBase-T),  
1x RJ-45 (10/100/2.5G/5G/10GBase-T),  
1x SFP+ (1G/10Gb/s) •  
 
xaT


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°998993
Winpoks
Posté le 15-11-2017 à 17:14:47  profilanswer
 

zeql_ a écrit :


 
Y a Aquantia qui fait des chips, mais elle est plutôt sur le marché pro que grand public et je doute qu'elle soit capable de fournir des quantités grand public pour le moment (plusieurs millions de puces par an avec tout le suivi et la qualité qui va avec).


 
Justement, c'est les premiers à sortir pour le grand public et à être intégré sur des cartes mères. Le défaut actuel c'est la chauffe rapide qui "plombe" le débit. À voir sur les prochaines révisions.

n°998996
lexomilou
Posté le 15-11-2017 à 17:32:43  profilanswer
 

Petite question réseau si certains d'entre vous ont une box non bridgable.
 
Je pense passer à l'offre Bbox étant chez Free (trop de démarchage téléphonique depuis que je suis chez eux bref...)
J'ai peur que la latence augmente beaucoup sachant que j'aurai du coup une config Bbox LAN0 où se branche le routeur avec son LAN1.
Du coup TOUT le réseau hors la Bbox sera dans le résean LAN1.
 
La latence varie beaucoup ?

n°999054
flash23
Posté le 15-11-2017 à 23:18:16  profilanswer
 

rezolan a écrit :

Efex a raison, il y a méconnaissance de ce qu'est un réseau et des ce qu'il charrie :
 
un fichier vidéo de 90min pése environ (je dis bien environ, dépend de tout un tas de paramètres divers et avariés) :
- 700Mo pour un DIVX, soit 8mo/min à passer, soit encore 130Ko/seconde... soit une consommation de l'ordre de  1,5Mbps de bande passante.
- 10Go pour un 1080p,soit 114mo/min à passer, soit encore 1,9Mo/seconde... soit une consommation de l'ordre de 20Mbps de bande passante.
- 50Go pour un 4K, soit 569mo/min à passer, soit encore 9,5Mo/seconde... soit une consommation de l'ordre de 95Mbps de bande passante.
 
Donc pour saturer un réseau commuté à 1Gbps, il faut déjà se lever de bonne heure avec un usage normal. La connexion internet dont le débit moyen en France tourne autour de 8Mbps, est saturée bien avant, mais un réseau local, peut aussi transporter du flux... local, il est vrai.
 
Et comme je je disais précédemment, transfert 1Go sur un réseau à 1Gbps prend moins de 15 secondes entre le moment ou on clique et le moment ou c'est terminé... alors  

Citation :

Euh, pour vous je ne sais pas , mais moi quand un de mes user@home fait un transfert, je ne peux pas lui demander de patienter jusqu'au lendemain matin.


est-ce bien défendable ?
 
Par contre, le non développement du 10GbaseT n'est pas une question de maturité, puisque la norme est entérinée depuis 2006 (802.3an), avant même le 10Gbase-LRM (802.3aq, version pour la fibre multimode). Il n'y a tout simplement pas de demande, ça ne représente actuellement que des marchés niches.
 
Je sais bien que je vais encore me faire traiter de "vieux c..", mais mon 1er PC PRO, n'avait pas de disque dur, 32ko de mémoire et mon traitement de texte tenait sur une disquette de 360ko pour ne parler que de ça. Les programmes spatiaux et le concordes ont été développés avec des ordinateurs dont la puissance de calcul ferait marrer n'importe quelle calculatrice scientifique actuelle. Aujourd'hui les programmes sont souvent écris n'importe comment, la gestion des données fait appel à une débauche de place et de puissance plutôt qu'au bon sens. Sans parler écologie, puisque l'ensemble des datacenter dans le monde engloutissent presque 1,5% de électricité mondiale et produisent 2% des gaz à effet de serre. L'ensemble des systèmes informatiques de la planète produit plus de 6% des effet nocifs (des gaz à effet de serre et production de chaleur incontrôlée)...  
 
Loin de moi l'idée de donner des leçons à quiconque, mais on peut toujours vouloir plus et mieux, mais jusqu'à quand ?


 
Certes, mais j'ai comme le sentiment, pour ne pas dire le souvenir, qu'à une certaine époque on disait que le 100Mbps était laaargement suffisant pour l'éternité.
Un peu comme l'histoire des 640K de mémoire de Bill Gates, quoi.  :o

n°999056
Electrocut
Electro Addict
Posté le 15-11-2017 à 23:21:43  profilanswer
 

lexomilou a écrit :

Petite question réseau si certains d'entre vous ont une box non bridgable.
 
Je pense passer à l'offre Bbox étant chez Free (trop de démarchage téléphonique depuis que je suis chez eux bref...)
J'ai peur que la latence augmente beaucoup sachant que j'aurai du coup une config Bbox LAN0 où se branche le routeur avec son LAN1.
Du coup TOUT le réseau hors la Bbox sera dans le résean LAN1.
 
La latence varie beaucoup ?


Compte environ 0.5 ms de latence en plus.
 
Je possède un routeur TP-Link Archer C7 (ici 192.168.2.1) derrière la Bbox (ici 192.168.0.1) :
 

pi@domoticz:~ $ sudo traceroute 8.8.8.8
traceroute to 8.8.8.8 (8.8.8.8), 30 hops max, 60 byte packets
 1  192.168.2.1 (192.168.2.1)  0.614 ms  0.404 ms  0.541 ms
 2  192.168.0.1 (192.168.0.1)  0.992 ms  1.219 ms  1.341 ms
 3  176.187.x.x (176.187.x.x)  23.541 ms  24.779 ms  25.786 ms
 4  be31.cbr01-ntr.net.bbox.fr (212.194.171.104)  33.397 ms  33.293 ms  34.978 ms
 5  * * *
 6  72.14.213.208 (72.14.213.208)  38.657 ms  32.558 ms  34.099 ms
 7  * * *
 8  216.239.42.38 (216.239.42.38)  35.980 ms 108.170.234.50 (108.170.234.50)  28.583 ms 209.85.251.146 (209.85.251.146)  28.388 ms
 9  216.239.47.81 (216.239.47.81)  29.951 ms 209.85.249.183 (209.85.249.183)  32.321 ms  32.221 ms
10  google-public-dns-a.google.com (8.8.8.8)  31.898 ms  34.057 ms  33.966 ms

Message cité 1 fois
Message édité par Electrocut le 15-11-2017 à 23:22:07
n°999061
lexomilou
Posté le 15-11-2017 à 23:57:18  profilanswer
 

Electrocut a écrit :


Compte environ 0.5 ms de latence en plus.
 
Je possède un routeur TP-Link Archer C7 (ici 192.168.2.1) derrière la Bbox (ici 192.168.0.1) :
 

pi@domoticz:~ $ sudo traceroute 8.8.8.8
traceroute to 8.8.8.8 (8.8.8.8), 30 hops max, 60 byte packets
 1  192.168.2.1 (192.168.2.1)  0.614 ms  0.404 ms  0.541 ms
 2  192.168.0.1 (192.168.0.1)  0.992 ms  1.219 ms  1.341 ms
 3  176.187.x.x (176.187.x.x)  23.541 ms  24.779 ms  25.786 ms
 4  be31.cbr01-ntr.net.bbox.fr (212.194.171.104)  33.397 ms  33.293 ms  34.978 ms
 5  * * *
 6  72.14.213.208 (72.14.213.208)  38.657 ms  32.558 ms  34.099 ms
 7  * * *
 8  216.239.42.38 (216.239.42.38)  35.980 ms 108.170.234.50 (108.170.234.50)  28.583 ms 209.85.251.146 (209.85.251.146)  28.388 ms
 9  216.239.47.81 (216.239.47.81)  29.951 ms 209.85.249.183 (209.85.249.183)  32.321 ms  32.221 ms
10  google-public-dns-a.google.com (8.8.8.8)  31.898 ms  34.057 ms  33.966 ms



 
Merci pour ces infos cela me conforte dans mon choix  :jap:  

n°999065
zeql_
Posté le 16-11-2017 à 00:53:27  profilanswer
 

Winpoks a écrit :


 
Justement, c'est les premiers à sortir pour le grand public et à être intégré sur des cartes mères. Le défaut actuel c'est la chauffe rapide qui "plombe" le débit. À voir sur les prochaines révisions.


 
Effectivement ils ont créé l'alliance NBase-T. Il y a eu l'adoption du 802.3bz en 2016, ça a l'air de pousser un peu pour l'adoption des vitesses supérieures à 1Gbps sur cable, d'ici quelques années on devrait voir des produits, le temps que les fabricants s'adaptent au nouveau standard sur les prochaines générations de puces  :jap:

n°999069
David7578
Posté le 16-11-2017 à 05:46:25  profilanswer
 

flash23 a écrit :


 
Certes, mais j'ai comme le sentiment, pour ne pas dire le souvenir, qu'à une certaine époque on disait que le 100Mbps était laaargement suffisant pour l'éternité.
Un peu comme l'histoire des 640K de mémoire de Bill Gates, quoi.  :o


C'est pas faux.
Mais en dehors des vidéos à très gros bitrate, on a pas vraiment d'usages qui vont saturer le 1G de façon fréquente et pendant de longues durées chez le particulier.
Et je ne vois pas non plus l'amorce d'usages qui pourraient exploser dans ce sens.
Ce dont on manque, mais côté WAN plus que LAN, c'est parfois d'une latence plus faible. Mais ce n'est du coup pas lié à la bande passante...

n°999072
_Raynor_
Posté le 16-11-2017 à 07:48:56  profilanswer
 

Le streaming vidéo (dans les deux sens) ? Deux sens car il y a le cas du partage d'écran avec un public (eg. Twitch) et celui de l'utilisation de puissance de calcul/rendu non-locale (GPU dans un datacenter ou dans le sous-sol).
Pour l'instant on se contente peut-être de 720p mais on va vouloir jouer en 4K (en 3D:o)

n°999078
grotius
Posté le 16-11-2017 à 08:42:44  profilanswer
 

Personne ne va sortir des services qui demandent une infrastruture que personne n'a. La tendance actuelle c est meme plus cablé. Si tu as de tres gros besoin tu peux doubler aussi la prise rj45.

n°999079
_Raynor_
Posté le 16-11-2017 à 08:49:31  profilanswer
 

Quand on voit que les jeux vidéos qui injouables sur ADSL commencent à arriver (eg. Quake Champions).

n°999081
Qingdan
Posté le 16-11-2017 à 09:07:49  profilanswer
 

David7578 a écrit :


C'est pas faux.
Mais en dehors des vidéos à très gros bitrate, on a pas vraiment d'usages qui vont saturer le 1G de façon fréquente et pendant de longues durées chez le particulier.


 
Ce ne sera pas avant très longtemps que la diffusion de vidéo va saturer un lien de 1Gbps chez le particulier.  Les calculs et explications de Rezolan sont tout à fait éloquents.
 
Pour diffuser une video bluray, même en 3D, une connection réseau à 100mbps suffit.  (La preuve, ça marche très bien avec les boitier multimédia type popcorn hour, qui sont connecté en 100mbps).
 
A moins d'avoir 100 utilisateurs à la maison qui lisent leur video sur le même serveur local en même temps, mais là les contraintes sont telles que l'on n'est plus dans un réseau domestique.
 
Les usages décrit par Raynor n'ont rien à voir avec le LAN, le réseau domestique mais uniquement à voir avec la vitesse / latence de la connexion internet.

Message cité 1 fois
Message édité par Qingdan le 16-11-2017 à 09:09:46
n°999083
Profil sup​primé
Posté le 16-11-2017 à 09:14:45  answer
 

rezolan a écrit :


Je sais bien que je vais encore me faire traiter de "vieux c..", mais mon 1er PC PRO, n'avait pas de disque dur, 32ko de mémoire et mon traitement de texte tenait sur une disquette de 360ko pour ne parler que de ça. Les programmes spatiaux et le concordes ont été développés avec des ordinateurs dont la puissance de calcul ferait marrer n'importe quelle calculatrice scientifique actuelle. Aujourd'hui les programmes sont souvent écris n'importe comment, la gestion des données fait appel à une débauche de place et de puissance plutôt qu'au bon sens. Sans parler écologie, puisque l'ensemble des datacenter dans le monde engloutissent presque 1,5% de électricité mondiale et produisent 2% des gaz à effet de serre. L'ensemble des systèmes informatiques de la planète produit plus de 6% des effet nocifs (des gaz à effet de serre et production de chaleur incontrôlée)...  
 
Loin de moi l'idée de donner des leçons à quiconque, mais on peut toujours vouloir plus et mieux, mais jusqu'à quand ?


 
On est fait pour s'entendre, je ne peux qu'être en accord avec ta pensée.
 
J'aime bien prendre l'exemple des jeux vidéo, dans ma jeunesse, un jeux tenait sur quelques disquettes, le code était optimisé, léché, propre, actuellement, un jeux c'est 60Gb, avec des bugs qui seront patché online avec une mise à jour,... On est dans une débauche totale. Les OS c'est pareil, alors oui c'est plus beau avec plein de fonctionnalité sympa mais au final c'est devenu une sorte d'usine à gaz qui demande de plus en plus de puissance, d'espace et de bande passante pour quoi au final ?
 
Le réseau c'est pareil, on ne se soucie plus de compresser les flux, d'utiliser les bons encodages pour les vidéos, on stocke tout en ligne sans se demander si c'est pertinent, résultat, on se retrouve avec des ferme de serveurs qui stockent des photos, des vidéos qui ne seront jamais vues... Le web c'est pareil, les pages web pèsent de plus en plus, on est plus capable d'optimiser, de mettre les photos à une taille décente, on préfèrent taper une image en 4000px et laisser le navigateur s'occuper de la resizer...
 
Résultat, on se retrouve avec un gaspillage de ressources juste incroyable, il suffit de regarder le poids d'une page web par exemple, ou d'une vidéo en ligne pour comprendre le délire.
Et nos réseau locaux c'est pareil, Si on y regarde, dans 90% des utilisations, le 100Mb est largement suffisant, le Gb n'est utile que lorsque l'on déplace des fichiers volumineux qui pour les gens sont bien souvent de la vidéo...
 
Tout ça pour dire, la technologie c'est génial, le progrès aussi, mais partir du principe que l'on a de la puissance et de la place pour ne rien optimiser, c'est idiot... Il faut utiliser la technologie de façon intelligente et économe en optimisant le code et les flux de données.

n°999087
David7578
Posté le 16-11-2017 à 09:47:27  profilanswer
 

Qingdan a écrit :

 

Ce ne sera pas avant très longtemps que la diffusion de vidéo va saturer un lien de 1Gbps chez le particulier. Les calculs et explications de Rezolan sont tout à fait éloquents.

 

Pour diffuser une video bluray, même en 3D, une connection réseau à 100mbps suffit. (La preuve, ça marche très bien avec les boitier multimédia type popcorn hour, qui sont connecté en 100mbps).

 

A moins d'avoir 100 utilisateurs à la maison qui lisent leur video sur le même serveur local en même temps, mais là les contraintes sont telles que l'on n'est plus dans un réseau domestique.

 

Les usages décrit par Raynor n'ont rien à voir avec le LAN, le réseau domestique mais uniquement à voir avec la vitesse / latence de la connexion internet.


Je ne pensais pas aux flux en direct, mais aux transferts de grosses vidéos à fort bitrate.
Et ça ne sature un lien 1G que très exceptionnellement, c'est ce que j'écris.
Donc chez le particulier on a pas d'usage qui sature le 1G souvent et/où longtemps.
Et je ne vois pas d'usages aujourd'hui qui pourraient un jour avoir ces caractéristiques.

 

La bp actuelle sert de confort et en local limite la perte de latence pendant un gros transfert.

n°999089
zeql_
Posté le 16-11-2017 à 10:11:25  profilanswer
 

_Raynor_ a écrit :

Le streaming vidéo (dans les deux sens) ? Deux sens car il y a le cas du partage d'écran avec un public (eg. Twitch) et celui de l'utilisation de puissance de calcul/rendu non-locale (GPU dans un datacenter ou dans le sous-sol).
Pour l'instant on se contente peut-être de 720p mais on va vouloir jouer en 4K (en 3D:o)


 
Ton stream video est compressé hein, donc un bitrate de 8-10Mbps max  ;)  
 
 
 
Euh les 60gb c'est surtout les graphismes (textures, modèles, etc.). Pour m'être intéressé à la demo scene, on peut faire des rendus temps réels avec un exe 4k et 64k (avec DirectX non compris) mais les graphismes sont entièrement calculés et les quelques textures sont compressées. Or ce n'est pas "jouable", les demo tournent à 30+FPS seulement avec des bêtes de compétition. Donc les jeux ont des modèles et textures moins compressés pour que ça soit jouable. Et les moteurs graphiques sont bien optimisés, mais il y a énormément de features faites pour faire des rendus plus réalistes.  
Compare Wolfenstein 3D avec Wolfenstein : The New Order, l'augmentation de la taille est peut-être justifiée, non ?
 
Pour les OS tu peux revenir à Windows 3.1, hein.  
 
Pour les photos, c'est un souci des fabricants d'appareils photo et smartphone. Quand je vois les photo en jpg qui font 4Mo, en gros c'est quasiment pas compressé. Une simple compression à 80-90% et tu gagne 2-3Mo. Mais beaucoup d'utilisateurs lambda ne le font pas. Donc oui ça navigue sur le réseau de manière non optimisée.
Pour la vidéo, aujourd'hui on héberge sur des plateforme comme Youtube qui compresse la vidéo, donc ça limite les dégats.
 
Donc dire qu'en gros personne s'en fout, chez les utiliseurs, oui, chez les entreprises un peu moins.

n°999098
_Raynor_
Posté le 16-11-2017 à 11:01:09  profilanswer
 

zeql_ a écrit :

Ton stream video est compressé hein, donc un bitrate de 8-10Mbps max  ;)

Certes mais je parlais de streaming en direct, où prendre le temps de bien compresser n'est pas toujours possible (puisque ça prends du temps et qu'on veut être en direct...).

n°999099
zeql_
Posté le 16-11-2017 à 11:18:16  profilanswer
 

_Raynor_ a écrit :

Certes mais je parlais de streaming en direct, où prendre le temps de bien compresser n'est pas toujours possible (puisque ça prends du temps et qu'on veut être en direct...).

 

Si twitch et le streaming s'est développé c'est une part parce que les connexions ont augmenté en débit permettant d'avoir du 720p sans souci et d'autre part parce que les PC sont suffisamment puissant pour faire de la compression en direct (h264 hardware).
J'ai participé à une webtv gaming vers 2009-2011, on sortait un flux 640*480 avec un encodage live sur une bête de course (CPU high-end overclocké, CG haut de gamme, pas mal de ram, puisque le PC faisait tourner le jeu avec des graphismes corrects et encodait en plus) et notre streamer n'avait pas une connexion de ouf.


Message édité par zeql_ le 16-11-2017 à 11:20:17
n°999110
Nono
non, pas le petit robot
Posté le 16-11-2017 à 11:53:34  profilanswer
 

rezolan a écrit :

OK, vu que nos opinions semblent diverger, je te ferais une dernière réponse sur ce sujet...
Le fait de lire "pour un particulier qui fait des gros transferts", ça m'interpelle. Comment un particulier peut avoir des "besoins vitaux" en matériels informatiques supérieurs à ceux d'une entreprise ?
J'étais absent du forum pendant un certain temps parce que j'ai sillonné la France (sauf l'ouest) pour faire des analyses et des installations de réseaux informatiques dans différentes entreprises ; principalement des (très) grandes surfaces, des loueurs de matériels, des entrepôts, des bureaux, etc... et je vais te dire, en plus d'un 1 an, les seuls commutateurs 10Gbps que j'ai vu étaient dans une salle info appartenant au CNRS.
 
Je n'en ai vu dans aucune autre entreprise et je vais même aller plus loin, la majorité des commutateurs sont encore en 100Mbps avec du câblage en Cat5 ou Cat5e. Pourquoi ? Parce que leur flux de données est parfaitement maîtrisé et qu'ils ne transfert pas les milliers de Giga pour se faire plaisir.
 
Donc, et je te le redis, très sincèrement je suis content pour toi que 1000€ ne représente qu'une broutille, mais perso, je préfère gérer mon flux de données différemment et ne pas investir tant d'argent dans ce genre d'installation, qui de mon point de vue, ne se justifie pas techniquement, pour un particulier.  ;)


Je sais pas ce que tu as visité mais moi je n'installe que du 10Gbps partout pour les entreprises et c'est des fois des PME (et du stockage en FC 8Gb)
alors en plusieurs moi que tu ne trouves qu'une salle avec du 10Gb ca m'étonne énormément !

n°999111
Nono
non, pas le petit robot
Posté le 16-11-2017 à 12:00:52  profilanswer
 

Je ne suis pas tout à fait d'accord
Le backup c'est pas de l'archivage.
Oui l'archivage se fait en offline pour pouvoir restaurer tout en cas de gros crash (ou pour faire du PRA - HS ici), mais le backup ca sert a recuperer des fichiers effacés apr erreur, revenir en arriere sur des versions de fichiers etc. et la, bah ton NAS il est tres bien pour ca.
Ensuite bosser sur NAS pour des fichiers volumineux, ca reste tout à fait faisable, mais pas sur un NAS avec 2 disques en RAID1, faut multiplier les disques dans le ANS pour avoir une bonne vitesse (genre 6 disques en RAID) et la tu satures ton lien Gb.
 

n°999127
Delivereat​h
Posté le 16-11-2017 à 13:39:40  profilanswer
 

zeql_ a écrit :

 

Ton stream video est compressé hein, donc un bitrate de 8-10Mbps max  ;)

 



Pour du jeu en stream avec encodage à la volée, les réglages haute qualité en 4k donnent plutôt des valeurs de bitrate entre 30 et 80 Mbps. Et les TV 8k existent déjà ainsi que du contenu... Sachant que sur du blu-ray 4k HDR, on dépasse déjà les 100 Mbps, je ne serais absolument pas étonné qu'avec les évolutions de la vidéo, on arrive à saturer un lien gpbs avec deux ou trois flux d'ici 2025.

 

D'ailleurs, vu qu'on a déjà des caméras 360°, ça donne quoi comme bitrate un film 360° 4k 60 fps ?

 

En général, les prédictions technologiques à plus de 5 ans sont mauvaises. Donc les commentaire du genre "Et je ne vois pas d'usages aujourd'hui qui pourraient un jour avoir ces caractéristiques" sont plutôt drôles.

Message cité 2 fois
Message édité par Delivereath le 16-11-2017 à 13:41:02
n°999129
zeql_
Posté le 16-11-2017 à 13:58:37  profilanswer
 

Delivereath a écrit :


Pour du jeu en stream avec encodage à la volée, les réglages haute qualité en 4k donnent plutôt des valeurs de bitrate entre 30 et 80 Mbps. Et les TV 8k existent déjà ainsi que du contenu... Sachant que sur du blu-ray 4k HDR, on dépasse déjà les 100 Mbps, je ne serais absolument pas étonné qu'avec les évolutions de la vidéo, on arrive à saturer un lien gpbs avec deux ou trois flux d'ici 2025.
 
D'ailleurs, vu qu'on a déjà des caméras 360°, ça donne quoi comme bitrate un film 360° 4k 60 fps ?
 
En général, les prédictions technologiques à plus de 5 ans sont mauvaises. Donc les commentaire du genre "Et je ne vois pas d'usages aujourd'hui qui pourraient un jour avoir ces caractéristiques" sont plutôt drôles.


 
Déjà les configs PC permettant de faire tourner un jeu en 4K HQ sont assez limitées, si tu rajoute de l'encodage live dessus, ce n'est techniquement pas possible. Sinon tu passe par une seconde machine avec carte d'acquisition, donc on sort des schéma classique pour s'orienter vers des exceptions. Désolé mais je ne fonde pas un raisonnement de RJ45 @ home sur les possiblité d'une centaine (un millier ?) de personne dans le monde.
 
La norme UHDBD spécifie un bitrate max de 108 Mbps et 128Mbps selon la taille du disque. Je doute qu'il y ait plus de 3-4 TV dans les maisons, donc 4 films en même temps à 125Mbps ça fait 500Mbps, et les personnes qui ont un accès fibre > 400Mbps sont assez rares.
Les flux vidéos de stream sont recompressés donc je vois pas l'intérêt de parler de bitrate natif BD... (qui est déjà compressé en MPEG-2 ou VC-1)  [:spamafote]  
 
Le Gigabit ne sera pas saturé avant quelques années encore, mais le réseau que tu monte doit durer longtemps, notamment niveau cable. Rien n'empêche de mettre du cat6a et d'avoir des équipement en 1Gbps et dans quelques années, quand le 5 ou 10Gbps sera démocratisé, je changer les équipements  [:spamafote]  
 

n°999131
xjoker
en observation
Posté le 16-11-2017 à 14:11:42  profilanswer
 

Delivereath a écrit :


Pour du jeu en stream avec encodage à la volée, les réglages haute qualité en 4k donnent plutôt des valeurs de bitrate entre 30 et 80 Mbps. Et les TV 8k existent déjà ainsi que du contenu... Sachant que sur du blu-ray 4k HDR, on dépasse déjà les 100 Mbps, je ne serais absolument pas étonné qu'avec les évolutions de la vidéo, on arrive à saturer un lien gpbs avec deux ou trois flux d'ici 2025.
 
D'ailleurs, vu qu'on a déjà des caméras 360°, ça donne quoi comme bitrate un film 360° 4k 60 fps ?
 
En général, les prédictions technologiques à plus de 5 ans sont mauvaises. Donc les commentaire du genre "Et je ne vois pas d'usages aujourd'hui qui pourraient un jour avoir ces caractéristiques" sont plutôt drôles.


 
 
"Personne n’aura jamais besoin de plus de 640 Kb de mémoire sur son PC."
Bill Gates 1981

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  279  280  281  ..  582  583  584  585  586  587

Aller à :
Ajouter une réponse
 

Sujets relatifs
Conseils pour un server@homeDébit et interface réseau
Réseau sans fil non détecté sur Portable Fujitsu...Le réseau sans fil non détecté
Sécuriser mon réseauPartager un répertoire accessible en réseau
Apparition d'un réseau Wifi étrange.Configurer un routeur Netgear + réseau local TCP/IP
réseau sans fil non sécurisé 
Plus de sujets relatifs à : Le réseau à la maison RJ45@HOME


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR