Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 03/05/2014, à 15:21

creatiel

VPS instable

Bonjour à tous,

J'ai un serveur virtuel équipé de Ubuntu-server 12.04 avec les services web/mail classiques: apache, mysql php, postfix, dovecot, etc.

Il subit trop souvent des plantages qui nécessitent un reboot machine, l'accès OS étant quasi impossible. Au moment de la surchauffe, la console vm indique une mémoire totalement saturée et une cpu presque sans activité (sans doute du fait de la ram bloquée).

On me conseille de tout ré-installer, mais j'aimerai mieux savoir ce qui se passe et ensuite je pourrai prendre une décision.

Voici un syslog juste au moment d'un plantage :

Apr 30 16:55:40 server1 CRON[5756]: (getmail) CMD (/usr/local/bin/run-getmail.sh > /dev/null 2>> /dev/null)
Apr 30 16:55:49 server1 CRON[5757]: (root) CMD (/usr/local/ispconfig/server/server.sh 2>&1 > /dev/null | while read line; do echo `/bin/date` "$line" >> /var/log/ispconfig/cron.log; done)
Apr 30 16:56:27 server1 dovecot: master: Error: service(pop3-login): Initial status notification not received in 30 seconds, killing the process
Apr 30 16:56:27 server1 dovecot: master: Error: service(imap-login): Initial status notification not received in 30 seconds, killing the process
Apr 30 16:56:56 server1 kernel: [178654.466598] BUG: soft lockup - CPU#1 stuck for 21s! [apache2:5692]
Apr 30 16:56:57 server1 kernel: [178654.466807] Modules linked in: ip6table_filter ip6_tables xt_tcpudp xt_LOG xt_limit xt_multiport iptable_filter ip_tables x_tables ext2 coretemp ghash_clmulni_intel aesni_intel cryptd aes_x86_64 psmouse vmwgfx serio_raw ttm shpchp ppdev microcode vmw_balloon drm i2c_piix4 mac_hid parport_pc lp parport floppy vmxnet3 mptspi mptscsih mptbase
Apr 30 16:56:57 server1 kernel: [178654.466832] CPU 1 
Apr 30 16:56:57 server1 kernel: [178654.466833] Modules linked in: ip6table_filter ip6_tables xt_tcpudp xt_LOG xt_limit xt_multiport iptable_filter ip_tables x_tables ext2 coretemp ghash_clmulni_intel aesni_intel cryptd aes_x86_64 psmouse vmwgfx serio_raw ttm shpchp ppdev microcode vmw_balloon drm i2c_piix4 mac_hid parport_pc lp parport floppy vmxnet3 mptspi mptscsih mptbase
Apr 30 16:56:57 server1 kernel: [178654.466843] 
Apr 30 16:56:57 server1 kernel: [178654.466845] Pid: 5692, comm: apache2 Not tainted 3.5.0-49-generic #73~precise1-Ubuntu VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform
Apr 30 16:56:57 server1 kernel: [178654.466848] RIP: 0010:[<ffffffff8169f769>]  [<ffffffff8169f769>] _raw_spin_unlock_irqrestore+0x19/0x30
Apr 30 16:57:25 server1 kernel: [178654.466854] RSP: 0018:ffff88003fd03d90  EFLAGS: 00000286
Apr 30 16:57:25 server1 kernel: [178654.466855] RAX: ffff880036315040 RBX: ffff88003c91da00 RCX: 000000018010000e
Apr 30 16:57:25 server1 kernel: [178654.466855] RDX: 000000000000792c RSI: 0000000000000286 RDI: 0000000000000286
Apr 30 16:57:25 server1 kernel: [178654.466856] RBP: ffff88003fd03d98 R08: ffff88003c91da00 R09: 000000018010000e
Apr 30 16:57:25 server1 kernel: [178654.466857] R10: 000000003c91dc01 R11: 0000000000000033 R12: ffff88003fd03d08
Apr 30 16:57:25 server1 kernel: [178654.466857] R13: ffffffff816a8a4a R14: ffff88003fd03d98 R15: ffff880036315000
Apr 30 16:57:25 server1 kernel: [178654.466858] FS:  00007f73f70d8740(0000) GS:ffff88003fd00000(0000) knlGS:0000000000000000
Apr 30 16:57:25 server1 kernel: [178654.466859] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Apr 30 16:57:25 server1 kernel: [178654.466860] CR2: 00007fe103475010 CR3: 000000000f564000 CR4: 00000000001407e0
Apr 30 16:57:25 server1 kernel: [178654.466869] DR0: 0000000000000000 DR1: 0000000000000000 DR2: 0000000000000000
Apr 30 16:57:25 server1 kernel: [178654.466878] DR3: 0000000000000000 DR6: 00000000ffff0ff0 DR7: 0000000000000400
Apr 30 16:57:25 server1 kernel: [178654.466879] Process apache2 (pid: 5692, threadinfo ffff88000f552000, task ffff88000b97dc40)
Apr 30 16:57:25 server1 kernel: [178654.466879] Stack:
Apr 30 16:57:25 server1 kernel: [178654.466880]  ffff88003fd03db8 ffff88003fd03df8 ffffffff81463fae ffff88003fd03dd8
Apr 30 16:57:25 server1 kernel: [178654.466883]  0000000000000286 ffff88003fd03db8 ffff88003fd03db8 ffff880036213d40
Apr 30 16:57:25 server1 kernel: [178654.466884]  ffff88003624b138 ffff88003c91da00 ffff880036213d40 0000000000000000
Apr 30 16:57:25 server1 kernel: [178654.466886] Call Trace:
Apr 30 16:57:25 server1 kernel: [178654.466887]  <IRQ> 
Apr 30 16:57:25 server1 kernel: [178654.466888]  [<ffffffff81463fae>] scsi_run_queue+0xce/0x1b0
Apr 30 16:57:25 server1 kernel: [178654.466892]  [<ffffffff814663c2>] scsi_next_command+0x42/0x60
Apr 30 16:57:25 server1 kernel: [178654.466893]  [<ffffffff814665f2>] scsi_io_completion+0x1b2/0x6b0
Apr 30 16:57:25 server1 kernel: [178654.466896]  [<ffffffff8145c5f1>] scsi_finish_command+0xd1/0x130
Apr 30 16:57:25 server1 kernel: [178654.466897]  [<ffffffff8146634e>] scsi_softirq_done+0x13e/0x150
Apr 30 16:57:25 server1 dovecot: master: Error: service(pop3-login): child 5753 killed with signal 9
Apr 30 16:57:25 server1 dovecot: master: Error: service(pop3-login): command startup failed, throttling
Apr 30 16:57:25 server1 dovecot: master: Error: service(imap-login): child 5755 killed with signal 9
Apr 30 16:57:25 server1 dovecot: master: Error: service(imap-login): command startup failed, throttling
Apr 30 16:57:43 server1 kernel: [178654.466900]  [<ffffffff813175d3>] blk_done_softirq+0x83/0xa0
Apr 30 16:57:43 server1 kernel: [178654.466904]  [<ffffffff8105bcc8>] __do_softirq+0xa8/0x210
Apr 30 16:57:43 server1 kernel: [178654.466906]  [<ffffffff816a939c>] call_softirq+0x1c/0x30
Apr 30 16:57:43 server1 kernel: [178654.466907]  <EOI> 
Apr 30 16:57:43 server1 kernel: [178654.466907]  [<ffffffff81016235>] do_softirq+0x65/0xa0
Apr 30 16:57:43 server1 kernel: [178654.466912]  [<ffffffff8105b864>] local_bh_enable+0x94/0xa0
Apr 30 16:57:43 server1 kernel: [178654.466914]  [<ffffffff81584ba9>] dev_queue_xmit+0x199/0x470
Apr 30 16:57:43 server1 kernel: [178654.466916]  [<ffffffff815ba98b>] ip_finish_output+0x16b/0x2d0
Apr 30 16:57:43 server1 kernel: [178654.466917]  [<ffffffff815bb486>] ip_output+0x66/0xa0
Apr 30 16:57:43 server1 kernel: [178654.466919]  [<ffffffff815bab92>] ? __ip_local_out+0xa2/0xb0
Apr 30 16:57:43 server1 kernel: [178654.466920]  [<ffffffff815babc9>] ip_local_out+0x29/0x30
Apr 30 16:57:43 server1 kernel: [178654.466921]  [<ffffffff815bad0d>] ip_queue_xmit+0x13d/0x3f0
Apr 30 16:57:43 server1 CRON[5767]: (root) CMD (/usr/local/ispconfig/server/server.sh 2>&1 > /dev/null | while read line; do echo `/bin/date` "$line" >> /var/log/ispconfig/cron.log; done)
Apr 30 16:57:43 server1 kernel: [178654.466924]  [<ffffffff815d34bd>] tcp_transmit_skb+0x37d/0x5d0
Apr 30 16:57:43 server1 kernel: [178654.466925]  [<ffffffff815d3d9e>] tcp_write_xmit+0x1ce/0x410
Apr 30 16:57:43 server1 kernel: [178654.466927]  [<ffffffff815d4046>] __tcp_push_pending_frames+0x26/0xa0
Apr 30 16:57:43 server1 kernel: [178654.466929]  [<ffffffff815c60da>] do_tcp_setsockopt.isra.34+0x82a/0x910
Apr 30 16:57:43 server1 kernel: [178654.466931]  [<ffffffff81569927>] ? sock_sendpage+0x27/0x30
Apr 30 16:57:43 server1 kernel: [178654.466934]  [<ffffffff811b5339>] ? page_cache_pipe_buf_release+0x19/0x30
Apr 30 16:57:43 server1 kernel: [178654.466935]  [<ffffffff811b5220>] ? splice_from_pipe_feed+0xd0/0x140
Apr 30 16:57:43 server1 kernel: [178654.466936]  [<ffffffff811b50e0>] ? splice_from_pipe_begin+0x20/0x20
Apr 30 16:57:43 server1 kernel: [178654.466938]  [<ffffffff811b50e0>] ? splice_from_pipe_begin+0x20/0x20
Apr 30 16:57:43 server1 kernel: [178654.466939]  [<ffffffff811b56dd>] ? __splice_from_pipe+0x4d/0x90
Apr 30 16:57:43 server1 kernel: [178654.466940]  [<ffffffff811b50e0>] ? splice_from_pipe_begin+0x20/0x20
Apr 30 16:57:43 server1 kernel: [178654.466941]  [<ffffffff811b78bc>] ? splice_from_pipe+0x5c/0x70
Apr 30 16:57:43 server1 kernel: [178654.466943]  [<ffffffff8105a956>] ? current_fs_time+0x16/0x60
Apr 30 16:57:43 server1 kernel: [178654.466944]  [<ffffffff811b7915>] ? generic_splice_sendpage+0x15/0x20
Apr 30 16:57:43 server1 kernel: [178654.466947]  [<ffffffff811a352b>] ? touch_atime+0x6b/0x150
Apr 30 16:57:43 server1 kernel: [178654.466949]  [<ffffffff811b5bdc>] ? splice_direct_to_actor+0x16c/0x1b0
Apr 30 16:57:43 server1 kernel: [178654.466950]  [<ffffffff811b5d30>] ? do_splice_from+0xb0/0xb0
Apr 30 16:57:43 server1 kernel: [178654.466951]  [<ffffffff811b5c6d>] ? do_splice_direct+0x4d/0x60
Apr 30 16:57:43 server1 kernel: [178654.466952]  [<ffffffff815c6223>] tcp_setsockopt+0x33/0x40
Apr 30 16:57:43 server1 kernel: [178654.466954]  [<ffffffff8156e994>] sock_common_setsockopt+0x14/0x20
Apr 30 16:57:43 server1 kernel: [178654.466956]  [<ffffffff8156d96f>] sys_setsockopt+0x7f/0xe0
Apr 30 16:57:43 server1 kernel: [178654.466959]  [<ffffffff816a7fa9>] system_call_fastpath+0x16/0x1b
Apr 30 16:57:43 server1 kernel: [178654.466959] Code: 66 90 5d c3 66 66 66 66 66 2e 0f 1f 84 00 00 00 00 00 55 48 89 e5 53 0f 1f 44 00 00 48 89 f3 e8 2e 13 9a ff 66 90 48 89 df 57 9d <0f> 1f 44 00 00 5b 5d c3 66 66 66 66 66 66 2e 0f 1f 84 00 00 00 
Apr 30 16:57:43 server1 kernel: [178688.278746] BUG: soft lockup - CPU#1 stuck for 25s! [cron:5758]
Apr 30 16:57:43 server1 kernel: [178688.278948] Modules linked in: ip6table_filter ip6_tables xt_tcpudp xt_LOG xt_limit xt_multiport iptable_filter ip_tables x_tables ext2 coretemp ghash_clmulni_intel aesni_intel cryptd aes_x86_64 psmouse vmwgfx serio_raw ttm shpchp ppdev microcode vmw_balloon drm i2c_piix4 mac_hid parport_pc lp parport floppy vmxnet3 mptspi mptscsih mptbase
Apr 30 16:57:43 server1 kernel: [178688.278962] CPU 1 
Apr 30 16:57:43 server1 kernel: [178688.278962] Modules linked in: ip6table_filter ip6_tables xt_tcpudp xt_LOG xt_limit xt_multiport iptable_filter ip_tables x_tables ext2 coretemp ghash_clmulni_intel aesni_intel cryptd aes_x86_64 psmouse vmwgfx serio_raw ttm shpchp ppdev microcode vmw_balloon drm i2c_piix4 mac_hid parport_pc lp parport floppy vmxnet3 mptspi mptscsih mptbase
Apr 30 16:57:43 server1 kernel: [178688.278971] 
Apr 30 16:57:43 server1 kernel: [178688.278972] Pid: 5758, comm: cron Not tainted 3.5.0-49-generic #73~precise1-Ubuntu VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform
Apr 30 16:57:43 server1 kernel: [178688.278990] RIP: 0010:[<ffffffff814655f2>]  [<ffffffff814655f2>] scsi_request_fn+0x372/0x450
Apr 30 16:57:43 server1 kernel: [178688.279000] RSP: 0000:ffff880006a8d9c8  EFLAGS: 00000206
Apr 30 16:57:43 server1 kernel: [178688.279004] RAX: ffff88003ac10828 RBX: 0000000836213d40 RCX: ffff88003ac10828
Apr 30 16:57:43 server1 kernel: [178688.279005] RDX: ffff88003624b048 RSI: 0000000000000003 RDI: ffff880036315050
Apr 30 16:57:43 server1 kernel: [178688.279006] RBP: ffff880006a8da18 R08: 0000000000000001 R09: ffff88003c29dc00
Apr 30 16:57:43 server1 kernel: [178688.279006] R10: 0000000001cbcb40 R11: ffff88003c85a700 R12: 0000000001cbcb40
Apr 30 16:57:43 server1 kernel: [178688.279007] R13: 0000000000001000 R14: ffffffff813296a5 R15: ffff880006a8d948
Apr 30 16:57:43 server1 kernel: [178688.279011] FS:  00007f1ff3faf7c0(0000) GS:ffff88003fd00000(0000) knlGS:0000000000000000
Apr 30 16:57:43 server1 kernel: [178688.279015] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Apr 30 16:57:43 server1 kernel: [178688.279019] CR2: 00007f1ff23180c4 CR3: 000000002d7d4000 CR4: 00000000001407e0
Apr 30 16:57:43 server1 kernel: [178688.279031] DR0: 0000000000000000 DR1: 0000000000000000 DR2: 0000000000000000
Apr 30 16:57:43 server1 kernel: [178688.279042] DR3: 0000000000000000 DR6: 00000000ffff0ff0 DR7: 0000000000000400
Apr 30 16:57:43 server1 kernel: [178688.279044] Process cron (pid: 5758, threadinfo ffff880006a8c000, task ffff88001d6cae20)
Apr 30 16:57:43 server1 kernel: [178688.279045] Stack:
Apr 30 16:57:43 server1 kernel: [178688.279046]  ffff880011c46b80 ffff880036213d40 ffff88003624b138 ffff88003624b048
Apr 30 16:57:43 server1 kernel: [178688.279048]  ffff880006a8da18 ffff880036213d40 0000000000000246 0000000000000000
Apr 30 16:57:43 server1 kernel: [178688.279049]  ffff880006a8da88 ffff880036213d40 ffff880006a8da68 ffffffff8130e065
Apr 30 16:57:43 server1 kernel: [178688.279051] Call Trace:
Apr 30 16:57:43 server1 kernel: [178688.279055]  [<ffffffff8130e065>] queue_unplugged+0x55/0xf0
Apr 30 16:57:43 server1 kernel: [178688.279058]  [<ffffffff813126d3>] blk_flush_plug_list+0x1c3/0x220
Apr 30 16:57:43 server1 kernel: [178688.279060]  [<ffffffff81312748>] blk_finish_plug+0x18/0x50
Apr 30 16:57:43 server1 kernel: [178688.279062]  [<ffffffff81133f1b>] read_pages+0x5b/0x100
Apr 30 16:57:43 server1 kernel: [178688.279063]  [<ffffffff8113411b>] __do_page_cache_readahead+0x15b/0x170
Apr 30 16:57:43 server1 kernel: [178688.279065]  [<ffffffff81134491>] ra_submit+0x21/0x30
Apr 30 16:57:43 server1 kernel: [178688.279068]  [<ffffffff816893a0>] do_sync_mmap_readahead.isra.25+0x94/0x9c
Apr 30 16:57:43 server1 kernel: [178688.279070]  [<ffffffff8112a9a9>] filemap_fault+0x359/0x3e0
Apr 30 16:57:43 server1 kernel: [178688.279073]  [<ffffffff81182a91>] ? mem_cgroup_charge_common+0x71/0xa0
Apr 30 16:57:43 server1 kernel: [178688.279075]  [<ffffffff8114cec2>] __do_fault+0x72/0x520
Apr 30 16:57:43 server1 kernel: [178688.279077]  [<ffffffff8115090a>] handle_pte_fault+0xfa/0x200
Apr 30 16:57:43 server1 kernel: [178688.279079]  [<ffffffff81156da4>] ? mmap_region+0x2d4/0x610
Apr 30 16:57:43 server1 kernel: [178688.279081]  [<ffffffff81151bd9>] handle_mm_fault+0x269/0x340
Apr 30 16:57:43 server1 kernel: [178688.279083]  [<ffffffff816a355e>] do_page_fault+0x17e/0x540
Apr 30 16:57:43 server1 kernel: [178688.279085]  [<ffffffff81144bb6>] ? vm_mmap_pgoff+0x96/0xb0
Apr 30 16:57:43 server1 kernel: [178688.279086]  [<ffffffff81155e93>] ? sys_mmap_pgoff+0xd3/0x1f0
Apr 30 16:57:43 server1 kernel: [178688.279088]  [<ffffffff8169fea5>] page_fault+0x25/0x30
Apr 30 16:57:43 server1 kernel: [178688.279089] Code: 50 48 8b 83 38 01 00 00 83 80 98 02 00 00 01 41 83 84 24 d0 00 00 00 01 49 8b 7c 24 58 e8 a7 b4 bd ff 66 90 fb 66 0f 1f 44 00 00 <4c> 89 ff e8 f6 f4 ff ff 4c 89 ff e8 7e 89 ff ff 49 8b bd f0 03 
Apr 30 16:57:43 server1 kernel: [178725.288168] BUG: soft lockup - CPU#0 stuck for 21s! [kswapd0:26]
Apr 30 16:57:43 server1 kernel: [178725.288494] Modules linked in: ip6table_filter ip6_tables xt_tcpudp xt_LOG xt_limit xt_multiport iptable_filter ip_tables x_tables ext2 coretemp ghash_clmulni_intel aesni_intel cryptd aes_x86_64 psmouse vmwgfx serio_raw ttm shpchp ppdev microcode vmw_balloon drm i2c_piix4 mac_hid parport_pc lp parport floppy vmxnet3 mptspi mptscsih mptbase
Apr 30 16:57:43 server1 kernel: [178725.288516] CPU 0 
Apr 30 16:57:43 server1 kernel: [178725.288517] Modules linked in: ip6table_filter ip6_tables xt_tcpudp xt_LOG xt_limit xt_multiport iptable_filter ip_tables x_tables ext2 coretemp ghash_clmulni_intel aesni_intel cryptd aes_x86_64 psmouse vmwgfx serio_raw ttm shpchp ppdev microcode vmw_balloon drm i2c_piix4 mac_hid parport_pc lp parport floppy vmxnet3 mptspi mptscsih mptbase
Apr 30 16:57:43 server1 kernel: [178725.288532] 
Apr 30 16:57:43 server1 kernel: [178725.288534] Pid: 26, comm: kswapd0 Not tainted 3.5.0-49-generic #73~precise1-Ubuntu VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform
A

Qui pourrait m'aider ?

Merci . G.

Hors ligne

#2 Le 03/05/2014, à 15:49

casperfr

Re : VPS instable

bonjour,

je suis très loin d'etre un spécialiste, dans ton log on retrouve deux fois cette ligne la
Apr 30 16:57:43 server1 kernel: [178725.288168] BUG: soft lockup - CPU#0 stuck for 21s! [kswapd0:26]

kswapd étant le service de swap du kernel (Kernel Swap Daemon) il y a une minuterie a retardement dans le noyau linux (de 2 x watchdog_thresh soit 2 x 10 secondes) et si la commande n'a pas répondu dans les temps elle est considéré comme bloquer, ce serais vraissemblablement l'erreur que tu as en tout cas pour ces lignes.

je te conseillerais dans un premier temps de vérifié si tu n'aurais pas un problème au niveau de l'activité de ta ram ou de ton cpu et surtout vérifié les températures de fonctionnement,

un cpu a une sonde interne qui stop son fonctionnement en cas de température critique pour évité de l'endommagé tu as donc un gèle de l'activité du cpu.

j'ai trouvé cette discution qui a l'air de ressemblé a la tienne,
https://bugzilla.redhat.com/show_bug.cgi?id=754075

Dernière modification par casperfr (Le 03/05/2014, à 15:50)

Hors ligne

#3 Le 03/05/2014, à 17:00

creatiel

Re : VPS instable

Merci de ta réponse,

J'ai regardé cette discussion, effectivement la ligne similaire est déclenchée par le hardware et cela pourrait me donner une piste.
Cette ligne contenant "BUG: soft lockup ...'' revient dans de nombreuses lignes pendant le plantage.

De mon coté, comme il s'agit d'une wm je ne suis pas sûr que je puisse accéder à un rapport des températures.

G.

Hors ligne

#4 Le 03/05/2014, à 17:07

casperfr

Re : VPS instable

vu que c'est une vm, il y a donc d'autre utilisateurs, il faudrait savoir si les autres utilisateurs (les autres vm) on aussi des instabilités du même ordre que la tienne,
j'ai déja vu des scripts php ou java rentré en boucle infini et rendre l'accès a la machine très instable, mais grace au priorité, j'avais toujours accès a mon panel de gestion (plesk)

comme c'est une vm tu as peut etre une supervision qui te permettrait de voir les ressources alloué au moment du plantage, et peut etre voir qu'elle application prend toutes ces ressources pour essayé de ciblé un peut plus le problème (si c'est un problème logiciel et non matériel bien entendu)

Hors ligne

#5 Le 04/05/2014, à 13:46

creatiel

Re : VPS instable

Alors aucune possibilité de consulter d'autres clients car il n'y a pas de communauté chez l'hébergeur. No forum.

Je n'ai pas de Plesk. j'ai un panel ISPconfig qui n'est plus accessible lorsqu'il y a ce genre de plantage.

Coté vm, c'est géré par vSphere qui ne remplace pas un top. Je peux juste voir que la mem est occupée à 100% lorsque le plantage est démarré. Je doute qu'il s'agisse d'une boucle infinie coté appli (mais je peux me tromper) car la cpu est faiblement utilisé pendant le freeze.

exemple d'un crash à 2h30 :
graph memoire
graph cpu

Hors ligne

#6 Le 04/05/2014, à 14:25

casperfr

Re : VPS instable

il y a quand meme un fort usage des cpu alloué au moment ou la ram commence a ce remplir,
en faite, peut etre que le problème viens d'ESX (je suppose que c'est une vm sous ESX ou ESXi vu l'usage de vsphere,
quoi qu'il en soit, si tu dépasse la RAM alloué il y a donc un manque de RAM qui peut faire planté surtout si celle ci continue a augmenté,
alors peut etre que tu as un script qui démarre sous cron peut etre une sauvegarde.
avec un compteur toutes les secondes on affiche les ressources utilisé par chaque application
comme le fais top,
mais il faudrait le sauvegarder jusqu'au moment du plantage,
on peut essayé un truc du style
top >> proccess.log
histoire que tous les processus s'enregistre les un a la suite des autres, c'est pas très orthodoxe  mais sa te permettra de voir l'application (le processus) qui pompe toute la mémoire et en remontant au début de la monté de l'usage de la RAM le processus qui a utilisé toutes les ressources processeur a ce moment la,
le fichier résultat n'est pas vraiment lisible facillement, mais c'est un début,
si quelqu'un d'autre a une métode plus simple et lisible, je serais aussi interressé.

sous plesk (avec une virtualisation vz) on peut dire qu'en cas de dépassement de capacité certaine application son stoppé avec une hierarchie, d'abord, l'antivirus/antispam ensuite apache puis les mails mais le ssh reste toujours accessible et le panel plesk aussi (dans la majorité des cas).

Hors ligne

#7 Le 04/05/2014, à 15:19

creatiel

Re : VPS instable

effectivement c'est une wm  ESXi.

Exact, au moment du crash il y a ce flash cpu.

Je note l'idée de bricoler un petit traceur mem cadencé par cron. je vais voir ça.
Mais maintenant, c'est peut-être pas évident de replanter le vps. Car suite à toutes ces interruptions de service, les applis en prod ont été transférées sur un serveur stable qui lui n'a jamais planté. Déjà, je sais que le pb ne vient pas de mes applis. Reste le système que j'ai peut-être mal installé ou trop trituré ou alors la vm qui est pourrie !! (je penche pour cette dernière hypothèse mais faut encore que je le prouve ...).

;-) merci de votre attention, je reste preneur de toutes suggestions.

Gilles

ps: c'est pour le support fr de ce forum que j'ai choisi Ubuntu comme distro

Hors ligne