Pages : 1
#1 Le 20/05/2020, à 18:27
- hibiki.tokay
Agrégation de lien
Bonjour
Sur ma nouvelle carte mère j'ai deux ports ethernet, j'aimerais faire de l’agrégation de lien. (mon nas l'a sur ces 4 connections, et mon autre tour (celle de sauvegarde du nas) aussi sur ces 2 connections)
J'ai suivi ce qui est marqué dans cette doc https://doc.ubuntu-fr.org/bonding et j'ai lu d'autre sujet ce rapportant a ça.
Voila mon /etc/modprobe.d/aliase-bond.conf
alias bond0 bonding
options bonding mode=0 miimon=100 downdelay=200 updelay=200
et mon /etc/network/interfaces
# interfaces(5) file used by ifup(8) and ifdown(8)
auto lo
iface lo inet loopbackauto bond0
iface bond0 inet static
address 192.168.1.20
netmask 255.255.255.0
network 192.168.1.0
gateway 192.168.1.254
broadcast 192.168.1.255
up /sbin/ifenslave bond0 eno1 enp2s0
down /sbin/ifenslave -d bond0 eno1 enp2s0
A la fin j'ai bien fait
sudo ifup bond0
Cannot find device "bond0"
Failed to bring up bond0.
donc j'ai aussi fais
/etc/init.d/networking restart
[....] Restarting networking (via systemctl): networking.serviceJob for networking.service failed because the control process exited with error code.
See "systemctl status networking.service" and "journalctl -xe" for details.
failed!
Donc je suis aller voir
systemctl status networking.service
● networking.service - Raise network interfaces
Loaded: loaded (/lib/systemd/system/networking.service; enabled; vendor preset: enabled)
Active: failed (Result: exit-code) since Wed 2020-05-20 19:03:19 CEST; 1min 11s ago
Docs: man:interfaces(5)
Process: 4078 ExecStart=/sbin/ifup -a --read-environment (code=exited, status=1/FAILURE)
Process: 4075 ExecStartPre=/bin/sh -c [ "$CONFIGURE_INTERFACES" != "no" ] && [ -n "$(ifquery --read-environment --list --exclude=lo)" ] && udevadm settle (code=exited, status=0/SUCCESS)
Main PID: 4078 (code=exited, status=1/FAILURE)
mai 20 19:03:19 frt-touri5-8400 systemd[1]: Starting Raise network interfaces...
mai 20 19:03:19 frt-touri5-8400 ifup[4078]: Cannot find device "bond0"
mai 20 19:03:19 frt-touri5-8400 ifup[4078]: Failed to bring up bond0.
mai 20 19:03:19 frt-touri5-8400 systemd[1]: networking.service: Main process exited, code=exited, status=1/FAILURE
mai 20 19:03:19 frt-touri5-8400 systemd[1]: networking.service: Failed with result 'exit-code'.
mai 20 19:03:19 frt-touri5-8400 systemd[1]: Failed to start Raise network interfaces.
et
journalctl -xe
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0):
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PL2791Q (DFP-1): connected
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PL2791Q (DFP-1): Internal TMDS
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PL2791Q (DFP-1): 600.0 MHz maximum pixel clock
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0):
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-2: disconnected
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-2: Internal DisplayPort
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-2: 1440.0 MHz maximum pixel clock
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0):
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-3: disconnected
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-3: Internal TMDS
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-3: 165.0 MHz maximum pixel clock
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0):
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PLE2483H (DFP-4): connected
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PLE2483H (DFP-4): Internal TMDS
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PLE2483H (DFP-4): 600.0 MHz maximum pixel clock
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0):
mai 20 18:57:04 frt-touri5-8400 rtkit-daemon[1826]: Supervising 0 threads of 0 processes of 1 users.
mai 20 18:57:04 frt-touri5-8400 rtkit-daemon[1826]: Supervising 0 threads of 0 processes of 1 users.
mai 20 18:57:04 frt-touri5-8400 rtkit-daemon[1826]: Supervising 0 threads of 0 processes of 1 users.
mai 20 18:57:04 frt-touri5-8400 rtkit-daemon[1826]: Supervising 0 threads of 0 processes of 1 users.
mai 20 18:57:04 frt-touri5-8400 rtkit-daemon[1826]: Supervising 0 threads of 0 processes of 1 users.
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PL2791Q (DFP-5): connected
Auriez vous un idée svp
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#2 Le 20/05/2020, à 18:38
- xubu1957
Re : Agrégation de lien
Bonjour,
Tente :
sudo modprobe bonding
> pb conf réseau : 1 bond sur lequel reposent 1 bridge + 1 vnic taggée
> tecmint.com/configure-network-bonding-teaming-in-ubuntu/
_ _ _
Regarde si tu vois une piste > [Résolu] Réseau local entre deux ordi sous Ubuntu
Conseils pour les nouveaux demandeurs et pas qu'eux
Important : Pensez à passer vos sujets en [Réso|u] lorsque ceux-ci le sont, au début du titre en cliquant sur Modifier sous le premier message, et un bref récapitulatif de la solution à la fin de celui-ci. Merci. Membre de Linux-Azur
En ligne
#3 Le 20/05/2020, à 18:44
- hibiki.tokay
Re : Agrégation de lien
Bonsoir
Rien, me demande le mdp mais rien ne ce produit. toujours la même chose
si je fait un
ifconfig
eno1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.1.16 netmask 255.255.255.0 broadcast 192.168.1.255
inet6 fe80::eb8:383f:5487:a8b0 prefixlen 64 scopeid 0x20<link>
ether a8:a1:59:16:a2:08 txqueuelen 1000 (Ethernet)
RX packets 7463 bytes 2980730 (2.9 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 2535 bytes 532421 (532.4 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
device interrupt 16 memory 0xa3400000-a3420000
enp2s0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.1.15 netmask 255.255.255.0 broadcast 192.168.1.255
inet6 fe80::82f3:43cf:b976:d939 prefixlen 64 scopeid 0x20<link>
ether a8:a1:59:16:a1:e7 txqueuelen 1000 (Ethernet)
RX packets 24061 bytes 18378699 (18.3 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 15417 bytes 3968566 (3.9 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
device memory 0xa3300000-a331ffff
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 1000 (Boucle locale)
RX packets 1104 bytes 105914 (105.9 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 1104 bytes 105914 (105.9 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
wlp3s0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
ether 80:32:53:d6:4e:44 txqueuelen 1000 (Ethernet)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#4 Le 20/05/2020, à 18:50
- xubu1957
Re : Agrégation de lien
Il faut attendre les conseils d'aidants pointus.
Conseils pour les nouveaux demandeurs et pas qu'eux
Important : Pensez à passer vos sujets en [Réso|u] lorsque ceux-ci le sont, au début du titre en cliquant sur Modifier sous le premier message, et un bref récapitulatif de la solution à la fin de celui-ci. Merci. Membre de Linux-Azur
En ligne
#5 Le 20/05/2020, à 18:55
- hibiki.tokay
Re : Agrégation de lien
oui je pense aussi. mais comme je n'ai pas installer encore la dernière version de ubuntu je me permet de faire des tests
J'espère qu'il y aura une solution
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#6 Le 22/05/2020, à 06:38
- maxire
Re : Agrégation de lien
Salut,
Au vu du message #3 je pense que tu n'utilises pas une version Ubuntu-Server mais une version poste de travail.
Tes deux interfaces ethernet sont montées et possèdent leurs propres adresses IP ce qui suggère que NetworkManager gère le réseau de ta machine.
Il existe plusieurs méthodes pour mettre en place le bonding, la documentation que tu as uilisée pour cette mise en place est valable pour une version Ubuntu-Server pas pour une machine dont la gestion réseau est réalisée par NetworkManager.
À une époque il était possible de définir des interfaces d'agrégation sous NetworkManager via son interface graphique de configuration (dépendamment des distributions et des bureaux), il faudrait chercher de ce côté.
Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail
Hors ligne
#7 Le 22/05/2020, à 12:03
- hibiki.tokay
Re : Agrégation de lien
Bonjour
Au vu du message #3 je pense que tu n'utilises pas une version Ubuntu-Server mais une version poste de travail.
Effectivement c'est bien de mon pc normal.
Donc j'ai continué mes recherches et j'ai trouvé ça https://www.starmate.fr/agregation-de-l … ntu-16-04/.
Mon /etc/network/interfaces est maintenant
# interfaces(5) file used by ifup(8) and ifdown(8)
auto lo
iface lo inet loopback# The primary network interface
auto eno1
iface eno1 inet manual
bond-master bond0
# The secondary network interface
auto enp2s0
iface enp2s0 inet manual
bond-master bond0auto bond0
iface bond0 inet static
address 192.168.1.20
gateway 192.168.1.254
netmask 255.255.255.0
dns-nameservers 8.8.8.8 8.8.4.4
up /sbin/ifenslave bond0 eno1 enp2s0
down /sbin/ifenslave -d bond0 eno1 enp2s0
J'ai modifié /etc/systemd/system/network-online.target.wants/networking.service et /etc/default/networking
L’état de l’agrégat bond0
cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eno1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: a8:a1:59:16:a2:08
Slave queue ID: 0
Slave Interface: enp2s0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: a8:a1:59:16:a1:e7
Slave queue ID: 0
ifconfig
bond0: flags=5187<UP,BROADCAST,RUNNING,MASTER,MULTICAST> mtu 1500
inet 192.168.1.20 netmask 255.255.255.0 broadcast 192.168.1.255
inet6 fe80::aaa1:59ff:fe16:a208 prefixlen 64 scopeid 0x20<link>
ether a8:a1:59:16:a2:08 txqueuelen 1000 (Ethernet)
RX packets 6689692 bytes 7542203504 (7.5 GB)
RX errors 0 dropped 2 overruns 0 frame 0
TX packets 978791 bytes 95890134 (95.8 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
eno1: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST> mtu 1500
ether a8:a1:59:16:a2:08 txqueuelen 1000 (Ethernet)
RX packets 87312 bytes 58958180 (58.9 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 488846 bytes 48872193 (48.8 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
device interrupt 16 memory 0xa3400000-a3420000
enp2s0: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST> mtu 1500
inet 192.168.1.16 netmask 255.255.255.0 broadcast 192.168.1.255
inet6 fe80::82f3:43cf:b976:d939 prefixlen 64 scopeid 0x20<link>
ether a8:a1:59:16:a2:08 txqueuelen 1000 (Ethernet)
RX packets 6602380 bytes 9936136718 (9.9 GB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 489945 bytes 47017941 (47.0 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
device memory 0xa3300000-a331ffff
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 1000 (Boucle locale)
RX packets 3547 bytes 337728 (337.7 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 3547 bytes 337728 (337.7 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
wlp3s0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
ether 80:32:53:d6:4e:44 txqueuelen 1000 (Ethernet)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: enp2s0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP group default qlen 1000
link/ether a8:a1:59:16:a2:08 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.16/24 brd 192.168.1.255 scope global dynamic noprefixroute enp2s0
valid_lft 70952sec preferred_lft 70952sec
inet6 fe80::82f3:43cf:b976:d939/64 scope link tentative
valid_lft forever preferred_lft forever
3: eno1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc fq_codel master bond0 state UP group default qlen 1000
link/ether a8:a1:59:16:a2:08 brd ff:ff:ff:ff:ff:ff
4: wlp3s0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN group default qlen 1000
link/ether 80:32:53:d6:4e:44 brd ff:ff:ff:ff:ff:ff
5: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
link/ether a8:a1:59:16:a2:08 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.20/24 brd 192.168.1.255 scope global bond0
valid_lft forever preferred_lft forever
inet6 fe80::aaa1:59ff:fe16:a208/64 scope link
valid_lft forever preferred_lft forever
Ensuite j'ai installé ethtool
sudo ethtool bond0
Settings for bond0:
Supported ports: [ ]
Supported link modes: Not reported
Supported pause frame use: No
Supports auto-negotiation: No
Supported FEC modes: Not reported
Advertised link modes: Not reported
Advertised pause frame use: No
Advertised auto-negotiation: No
Advertised FEC modes: Not reported
Speed: 2000Mb/s
Duplex: Full
Port: Other
PHYAD: 0
Transceiver: internal
Auto-negotiation: off
Link detected: yes
sudo ethtool eno1
Settings for eno1:
Supported ports: [ TP ]
Supported link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Full
Supported pause frame use: No
Supports auto-negotiation: Yes
Supported FEC modes: Not reported
Advertised link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Full
Advertised pause frame use: No
Advertised auto-negotiation: Yes
Advertised FEC modes: Not reported
Speed: 1000Mb/s
Duplex: Full
Port: Twisted Pair
PHYAD: 1
Transceiver: internal
Auto-negotiation: on
MDI-X: on (auto)
Supports Wake-on: pumbg
Wake-on: g
Current message level: 0x00000007 (7)
drv probe link
Link detected: yes
sudo ethtool enp2s0
Settings for enp2s0:
Supported ports: [ TP ]
Supported link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Full
Supported pause frame use: Symmetric
Supports auto-negotiation: Yes
Supported FEC modes: Not reported
Advertised link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Full
Advertised pause frame use: Symmetric
Advertised auto-negotiation: Yes
Advertised FEC modes: Not reported
Speed: 1000Mb/s
Duplex: Full
Port: Twisted Pair
PHYAD: 1
Transceiver: internal
Auto-negotiation: on
MDI-X: off (auto)
Supports Wake-on: pumbg
Wake-on: g
Current message level: 0x00000007 (7)
drv probe link
Link detected: yes
Jusque la tous a l'aire d'aller, mais je n'ai strictement rien gagné en terme de débit, que ce soit entre mon pc et le nas ds1819+, le pc et le nas Xpenology ou entre les 2 nas. Pourtant dans mles trois cas j'ai effectué un bonding.
Nas ds1819+ bond avec les 4 interfaces
Nas Xpenology bond avec les 2 interfaces
Mon pc bond avec les 2 interfaces
Je signale aussi que mon swich et un D-Link DGS-1100-16
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#8 Le 22/05/2020, à 13:21
- maxire
Re : Agrégation de lien
Salut,
Jusque la tous a l'aire d'aller, mais je n'ai strictement rien gagné en terme de débit,
En mode 0 c'est à dire active-backup le débit n'est pas amélioré, l'objectif est de basculer automatiquement le trafic réseau vers le périphérique secondaire (enp2s0) en cas de déficience du périphérique primaire (eno1). Oups mode=0 = blance-rr j'ai confondu avec le mode 1 qui est bien active-backup
Si j'ai bien compris le principe de l'agrégation de périphériques réseau en mode 0, je ne suis pas du tout un spécialiste réseau juste un bricoleur avancé.
Logiquement il faudrait que chaque périphérique membre de l'agrégation soient connectés à des réseaux physiques distincts sinon je ne vois pas l'intérêt de ce montage.
2 périphérique agrégés à 1 Gb/s connectés au même réseau physique lui-même fonctionnant à 1 Gb/s (débit maxi du switch) cela ne pourra jamais fonctionner à 2 Gb/s.
Une chose m'étonne c'est qu'une adresse IP est attribuée à enp2s0.
J'ai moi-même 2 ports ethernet dans ma station de travail (je l'utilise comme routeur) je viens de provisoirement mettre en place le bonding comme ceci :
[pirate@frankenstein ~]$ pkexec ip link add bond0 type bond mode 0
[[pirate@frankenstein ~]$ip link
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: enp1s0: <BROADCAST,MULTICAST> mtu 1500 qdisc fq_codel state DOWN mode DEFAULT group default qlen 1000
link/ether 50:e5:49:56:72:47 brd ff:ff:ff:ff:ff:ff
3: enp2s0: <BROADCAST,MULTICAST> mtu 1500 qdisc fq_codel state DOWN mode DEFAULT group default qlen 1000
link/ether 64:ee:b7:23:b3:1f brd ff:ff:ff:ff:ff:ff
5: bond0: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
link/ether da:d5:b4:a9:1d:de brd ff:ff:ff:ff:ff:ff
[pirate@frankenstein ~]$ pkexec ip link set enp2s0 master bond0
[pirate@frankenstein ~]$ pkexec ip link set enp1s0 master bond0
pirate@frankenstein ~]$ pkexec dhcpcd bond0
dhcpcd-9.0.2 starting
DUID 00:01:00:01:26:30:a1:30:64:ee:b7:23:b3:1f
bond0: IAID b4:a9:1d:de
bond0: adding address fe80::d8d5:b4ff:fea9:1dde
bond0: soliciting an IPv6 router
bond0: soliciting a DHCP lease
bond0: offered 192.168.1.22 from 192.168.1.1
bond0: probing address 192.168.1.22/24
bond0: leased 192.168.1.22 for 86400 seconds
bond0: adding route to 192.168.1.0/24
bond0: adding default route via 192.168.1.1
forked to background, child pid 1931
[pirate@frankenstein ~]$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: enp1s0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc fq_codel master bond0 state UP group default qlen 1000
link/ether da:d5:b4:a9:1d:de brd ff:ff:ff:ff:ff:ff
3: enp2s0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc fq_codel master bond0 state UP group default qlen 1000
link/ether da:d5:b4:a9:1d:de brd ff:ff:ff:ff:ff:ff
5: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
link/ether da:d5:b4:a9:1d:de brd ff:ff:ff:ff:ff:ff
inet 192.168.1.22/24 brd 192.168.1.255 scope global dynamic noprefixroute bond0
valid_lft 86397sec preferred_lft 75597sec
inet6 fe80::d8d5:b4ff:fea9:1dde/64 scope link
valid_lft forever preferred_lft forever
[pirate@frankenstein ~]$
Tu remarqueras que je me suis contenté d'utiliser le jeu de commandes ip, le module bond est chargé automatiquemen depuis toujours au démarrage de mon système et aucun des ports esclaves ne possède d'adresse IP (sans doute parce que je n'utilise pas les notions d'esclave primaire et d'esclave secondaire).
Dernière modification par maxire (Le 22/05/2020, à 14:00)
Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail
Hors ligne
#9 Le 22/05/2020, à 17:23
- hibiki.tokay
Re : Agrégation de lien
Logiquement il faudrait que chaque périphérique membre de l'agrégation soient connectés à des réseaux physiques distincts sinon je ne vois pas l'intérêt de ce montage.
2 périphérique agrégés à 1 Gb/s connectés au même réseau physique lui-même fonctionnant à 1 Gb/s (débit maxi du switch) cela ne pourra jamais fonctionner à 2 Gb/s.
non ça ne pose pas de problème si j'en crois la doc sur le site du fabricant https://eu.dlink.com/fr/fr/-/media/busi … _en_eu.pdf
"Capacité de commutation 32Gb/s"
Par contre je vois aussi "Agrégation des liens" 802.3ad et Static trunk
Une chose m'étonne c'est qu'une adresse IP est attribuée à enp2s0.
Effectivement c'est bizarre
Tu remarqueras que je me suis contenté d'utiliser le jeu de commandes ip, le module bond est chargé automatiquemen depuis toujours au démarrage de mon système et aucun des ports esclaves ne possède d'adresse IP (sans doute parce que je n'utilise pas les notions d'esclave primaire et d'esclave secondaire).
et on fais comment pour ça stp
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#10 Le 22/05/2020, à 17:35
- maxire
Re : Agrégation de lien
et on fais comment pour ça stp
Exactement comme tu peux le lire dans le #8.
Le problème va être d'automatiser le passage de ces commandes au démarrage du système.
Comme je l'ai déjà écrit il existe de multiples possibilités de mettre en place un bonding :
- celle que tu tentes mais qui semble mal fonctionner
- NetworkManager voir ici https://access.redhat.com/documentation … tool_nmcli
- celle qu j'ai utilisée en manuel
et certainement d'autres.
Une remarque la notion d'esclave primaire/secondaire n'est utilisée qu'en mode 1 (active-backup) et non en mode 0 (balance-rr), tu as donc fait une erreur de configuration si tu veux réellement faire de l'équilibrage de charge.
Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail
Hors ligne
#11 Le 22/05/2020, à 17:44
- hibiki.tokay
Re : Agrégation de lien
Une remarque la notion d'esclave primaire/secondaire n'est utilisée qu'en mode 1 (active-backup) et non en mode 0 (balance-rr), tu as donc fait une erreur de configuration si tu veux réellement faire de l'équilibrage de charge.
C'est fort possible car les exemple que je trouve en général sont pour le mode 1. Je vais continuer a chercher car il doit bien y avoir une solution
Edit
Comment savoir quelle est l'interface qui est utilisé lors d'un transfert de données entre mon nas et mon pc? Car dans le moniteur système c'est le débit général et pas interface par interface
Dernière modification par hibiki.tokay (Le 22/05/2020, à 19:44)
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#12 Le 23/05/2020, à 10:42
- hibiki.tokay
Re : Agrégation de lien
Bonjour
Pourriez vous me dire si il est possible de faire un bonding en mode 0 ou 4 car presque toutes les docs que je trouve ne parle que du mode 1
la doc de mon post 7 parle bien du mode 0 mais visiblement ne fonctionne pas.
J'ai fais d'autre tests avec d'autre docs mais dans certains cas mes deux carte étaient carrément désactivé au démarrage de ubuntu
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#13 Le 23/05/2020, à 11:15
- maxire
Re : Agrégation de lien
Réponse : oui
Je t'ai donné une solution à automatiser certes en 3 commandes :
sudo ip link add bond0 type bond mode 0
sudo ip link set eno1 master bond0
sudo ip link set enp2s0 master bond0
Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail
Hors ligne
#14 Le 23/05/2020, à 12:58
- hibiki.tokay
Re : Agrégation de lien
merci
sudo ip link add bond0 type bond mode 0
sudo ip link set eno1 master bond0
Error: Device can not be enslaved while up.
sudo ip link set enp2s0 master bond0
Error: Device can not be enslaved while up.
si je fais
sudo ifdown eno1
Unknown interface eno1
il me semble que j'avais trouvé cette solution quelque-part mais sans succès
Dernière modification par hibiki.tokay (Le 23/05/2020, à 13:14)
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#15 Le 23/05/2020, à 13:59
- maxire
Re : Agrégation de lien
Il faut tout de même arrêter les ports ethernet avant de les modifier et je ne sais pas du tout ce que tu utilises comme gestionnaire de réseau.
Si tu utilises NetworkManager il vaudrait mieux le stopper au préalable.
Pour arrếtér un port ethernet :
sudo ip link set eno1 down
Il faut au préalable supprimer son adresse IP si une adresse IP lui est toujours affectée.
Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail
Hors ligne
#16 Le 25/05/2020, à 09:49
- hibiki.tokay
Re : Agrégation de lien
Après pas mal de tests et de recherche j'ai trouvé ça https://access.redhat.com/documentation … face_nmtui
En suivant ça j'ai réussi a mettre en place ma connections bond mais toujours pareil pas de gain de vitesse en ce qui concerne mes transferts entre mon pc et mes nas
PC en mode 0 ---> pas de gain
PC en mode 4 ---> pas de gain
je tourne au max a 110Mo/s en nfs
more /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
Slave Interface: enp2s0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: a8:a1:59:16:a1:e7
Slave queue ID: 0
Aggregator ID: 1
Actor Churn State: none
Partner Churn State: churned
Actor Churned Count: 0
Partner Churned Count: 1
Slave Interface: eno1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: a8:a1:59:16:a2:08
Slave queue ID: 0
Aggregator ID: 2
Actor Churn State: churned
Partner Churn State: churned
Actor Churned Count: 1
Partner Churned Count: 1
ifconfig
bond0: flags=5187<UP,BROADCAST,RUNNING,MASTER,MULTICAST> mtu 1500
inet 192.168.1.20 netmask 255.255.255.0 broadcast 192.168.1.255
inet6 fe80::aaa1:59ff:fe16:a1e7 prefixlen 64 scopeid 0x20<link>
ether a8:a1:59:16:a1:e7 txqueuelen 1000 (Ethernet)
RX packets 34685 bytes 43632249 (43.6 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 10082 bytes 2129270 (2.1 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
eno1: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST> mtu 1500
ether a8:a1:59:16:a1:e7 txqueuelen 1000 (Ethernet)
RX packets 572 bytes 54588 (54.5 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 19 bytes 2432 (2.4 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
device interrupt 16 memory 0xa3400000-a3420000
enp2s0: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST> mtu 1500
ether a8:a1:59:16:a1:e7 txqueuelen 1000 (Ethernet)
RX packets 34113 bytes 43577661 (43.5 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 10063 bytes 2126838 (2.1 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
device memory 0xa3300000-a331ffff
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 1000 (Boucle locale)
RX packets 627 bytes 60110 (60.1 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 627 bytes 60110 (60.1 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
ip a show bond0
5: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
link/ether a8:a1:59:16:a1:e7 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.20/24 brd 192.168.1.255 scope global noprefixroute bond0
valid_lft forever preferred_lft forever
inet6 fe80::aaa1:59ff:fe16:a1e7/64 scope link
valid_lft forever preferred_lft forever
Dernière modification par hibiki.tokay (Le 25/05/2020, à 10:04)
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#17 Le 25/05/2020, à 10:20
- maxire
Re : Agrégation de lien
Salut,
C'est le principe de la résistance de la chaîne celle-ci est toujours celle du maillon le plus faible.
Dans une connexion réseau c'est pareil le débit maxi sera toujours le débit maxi de l'élément du réseau partie de la connexion ayant le débit le plus faible.
Le résultat que tu obtiens n'est pas nécessairement surprenant.
Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail
Hors ligne
#18 Le 25/05/2020, à 10:34
- hibiki.tokay
Re : Agrégation de lien
ok mais sachant que mes nas on tous un bond, que mon pc en a un maintenant, que chaque connections a son propre câble et port sur le swich et que le swich est capable de restituer 1Gb/s sur chaque port il n'y a aucune raison pour cette limitation???
Non??
Dernière modification par hibiki.tokay (Le 25/05/2020, à 10:35)
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#19 Le 25/05/2020, à 19:01
- hibiki.tokay
Re : Agrégation de lien
Je pense peut être avoir compris pourquoi ça ne fonctionne pas mon switch est un D-Link DGS-1100-16 version A1 Doc de mon switch et si j'en crois cette doc a pârtir de la page 25 pas de fonction link agrégation.
Par contre la même version mais plus récente le D-Link DGS-1100-16V2 version A1 Doc de cette version en page 56 parle bien de cette fonction.
Je me suis dit que en mettant le firmware a jour ça rajouterait peut être la fonction mais non de toute façon il est déjà a la dernier version de mon switch la 1.10.016.
Donc je me tâte a en changer étant donné que tous les ports de mon switch actuel sont utilisé et que j'ai l'intention de rajouter un petit switch POE plus tard pour 2 voir 3 cameras
Dernière modification par hibiki.tokay (Le 25/05/2020, à 19:19)
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#20 Le 25/05/2020, à 20:09
- maxire
Re : Agrégation de lien
Ton switch possède bien cette fonction d'agrégation appelée ici trunking,
Extrait de sa doc. page 25 :
L2 Features > Port TrunkingThe Trunking function allows the switch to combine two or four ports together to increase bandwidth. Select the Trunking Groups, choose the Members to be grouped together, and then click Apply to activate the selected Trunking Groups. Up to eight Trunking Groups may be created, each supporting up to four ports.Disable - Removes all the members in this trunk grou
Il devrait suffire de le régler.
Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail
Hors ligne
#21 Le 25/05/2020, à 22:00
- hibiki.tokay
Re : Agrégation de lien
Et bien non, je m’étais dis ça aussi hier donc j'ai fais des tests
Si je fais un trunk sur les ports 8 et 9 (mon pc) ---> lenteur, ouverture difficile, plus d'accé a mes nas, internet non plus
Si je fais un autre sur ports 13 à 16 (mon ds1819+) ---> la impossible d'accéder a quoi que ce soit, voir même pire impossible d'ouvrir nemo par exemple (oui c'est bizarre) et j'ai même remarqué que si je veux ouvrir l’éditeur de texte c'est extrêmement long, quand ça ne plante carrément pas.
En plus (et c'est la que je ne comprend pas), quand je vais chercher des infos sur le trunking chez D-link ça correspond a créer des réseaux virtuel séparé les uns des autres
Edit 1
Apres lecture des divers docs D-Link, ils intègrent dans le "Link Agregation" :
Le "Port Trunking" création de Vlan ou liaison entre 2 switchs
Le "LACP port settings" qui correspondrait au Bond
Edit 2
Dans le cas de mon switch le version Hardware A1 ne gére pas le LACP alors que la version B1 oui (a la période ou je l'ai acheter en janvier 2013 les deux versions étaient vendu sans distinction l'une de l'autre)
Dernière modification par hibiki.tokay (Le 26/05/2020, à 06:55)
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
#22 Le 19/07/2020, à 15:44
- hibiki.tokay
Re : Agrégation de lien
Bon je reviens car j'ai découvert quelque chose. en fait je ne peut pas avoir un débit supérieur a la vitesse d'un seule des connexions.
En clair actuellement j'ai un bond 480mo/s entre mon nas et mon switch, un bond 240mo/s entre mon pc et mon switch.
Cas 1 ----> si je fait un copier depuis mon nas vers mon pc j'aurais 120mo/s de vitesse et si en même temps je fait un copier entre mon pc et mon nas j'aurais aussi 120mo/s de vitesse (donc là j'aurai bien les 240mo/s) car dans ce cas les deux carte seront utilisé.
Cas 2 ----> si j'encode un film par exemple qui est sur mon nas et que je sauvegarde aussi sur le nas la je serais a 60mo/s depuis le nas et 60mo/s vers le nas (donc 120mo/s car il sagit d'une seul action pour le pc)
Cas 3 ----> 3 pc connecté au nas et chacun une copie depuis le nas j'aurais les 3 pc a 120mo/s donc 360m/s
J'ai posé la question a un ingénieur réseau.
Je pense probablement passer tous en 10giga avec une carte dans le nas, un connecteur a rajouter dans le switch et un adatateur usb 3.1 pour mon pc
Dernière modification par hibiki.tokay (Le 19/07/2020, à 15:58)
Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub24.04LTS)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)
Hors ligne
Pages : 1