Ethernet

Une définition du Jargon Français.
Aller à : Navigation, rechercher

nom propre masculin.  [protocole réseau]. Norme de protocole de réseau local relativement puissante et très répandue.

Le débit courant est de 100 Mbps, on voit souvent du 1 Gbps et il atteint 40 et 100 Gbps depuis mi-2010 avec le 40GbE et le 100GbE (constitués de faisceaux de brins à 10 ou 25 Gbps).

Inventée en 1970 au PARC de Xerox par Bob Metcalfe qui l'a décrit en 1974 dans sa thèse de Doctorat de Physique, puis repris par DEC, Intel et Xerox, normalisé par l'ISO et l'IEEE sous le numéro 802.3.

Il utilise du câble 10BASE-T ou du coaxial (appelé alors 10BASE-2 ou 10BASE-5) autorisant alors des transferts à 10 Mbps. Dans sa version à 100 Mbps, on parle de 100BASE-T (ou 100BASE autre chose en fonction du câble utilisé). Pour le Gbps, c'est 1000BASE-T (même remarque), 10GBASE-T.

Souvent abrégé eth, GigE (lorsqu'il débite au moins 1 Gbps) ou 10GigE (lorsqu'il débite au moins 10 Gbps).

Att.png L'Ethernet a été inventé à l'université d'Hawaii, dont le problème était de relier des îles distantes, d'où l'idée de passer par les ondes radio, donc par « l'éther ». En pratique ce sont des câbles (paire torsadée, fibre optique... mais pas d'ondes radio)

Voir aussi Ethernet convergé, cordon.