Автор Тема: Ping ты просто космос! Очень большой пинг до DNS [Решено]  (Прочитано 5336 раз)

Оффлайн asy

  • alt linux team
  • ***
  • Сообщений: 8 370
Может, всё же, совпало ? Нет ли третьего компьютера, поставить между сервером и интернетом минут хоть на 15 ? Сетевые карты одинаковым драйвером обслуживаются ? И каким(и) ?
« Последнее редактирование: 16.12.2013 23:03:37 от asy »

Оффлайн Cool_Lamer

  • Участник
  • *
  • Сообщений: 473
Может, всё же, совпало ? Нет ли третьего компьютера, поставить между сервером и интернетом минут хоть на 15 ? Сетевые карты одинаковым драйвером обслуживаются ? И каким(и) ?
Комп есть, но он нулёвый, даже система не стоит + чёт я так на вскидку и не придумаю как его на проброс интернета настроить... Насчёт сетевых карт, как посмотреть?

Оффлайн asy

  • alt linux team
  • ***
  • Сообщений: 8 370
Комп есть, но он нулёвый, даже система не стоит + чёт я так на вскидку и не придумаю как его на проброс интернета настроить...
Ну так поставить. Там делов-то - IP назначить и нат включить одной командой. Было бы 2 сетевых карты. Провайдерский IP на него, между ним и сервером - неиспользуемая приватная сеть. На сервере на него default gw, на нём статика для сети за сервером в сторону сервера.
Насчёт сетевых карт, как посмотреть?
Можно так (лишнее в выводе останется, наверное, всё равно): lspci -k|grep -A5 -i etherили так: ethtool -i eth0

Оффлайн Cool_Lamer

  • Участник
  • *
  • Сообщений: 473
Там делов-то - IP назначить и нат включить одной командой.
net.ipv4.ip_forward = 1 ? Ща ещё провайдеру звякну, попрошу чтоб трасернули наш ip.


# lspci -k|grep -A5 -i ether
05:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)
        Subsystem: Hewlett-Packard Company NC362i Integrated Dual port Gigabit Server Adapter
        Kernel driver in use: igb
        Kernel modules: igb
05:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)
        Subsystem: Hewlett-Packard Company NC362i Integrated Dual port Gigabit Server Adapter
        Kernel driver in use: igb
        Kernel modules: igb
fe:00.0 Host bridge: Intel Corporation Xeon 5500/Core i7 QuickPath Architecture Generic Non-Core Registers (rev 05)
        Subsystem: Intel Corporation Device 8086

Оффлайн asy

  • alt linux team
  • ***
  • Сообщений: 8 370
Там делов-то - IP назначить и нат включить одной командой.
net.ipv4.ip_forward = 1 ?
Нет, но это надо тоже. :-) Я про
iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADEИли
iptables -t nat -A POSTROUTING -o eth0 -j SNAT --to-source <IP>что, в общем-то, не очень принципиально в данном случае.

Оффлайн Cool_Lamer

  • Участник
  • *
  • Сообщений: 473
Вообщем сделал я немного по другому.
Воткнул в цепь простенький маршрутизатор (d-link dir615), подключил к нему аплинк провайдера, сервер и старенький пенёк.
И о чудо, пинг стал нормальный, но появились потери пакетов около 10-15%, при чём с обоих машин (с сервера и пенька), причём пинг между ними двумя идеальный.
Вопрос, что это было?

Оффлайн asy

  • alt linux team
  • ***
  • Сообщений: 8 370
Всё ещё не знаю. Если вернуть, как было, задержка опять растёт ?

Оффлайн Cool_Lamer

  • Участник
  • *
  • Сообщений: 473
Всё ещё не знаю. Если вернуть, как было, задержка опять растёт ?
Да. Пинг сразу под косарь.

Оффлайн asy

  • alt linux team
  • ***
  • Сообщений: 8 370
Всё ещё не знаю. Если вернуть, как было, задержка опять растёт ?
Да. Пинг сразу под косарь.
Дальше могу только в гости попроситься ssh-eм осмотреться. У igb и e1000e грабля есть, лечится посредством  pcie_aspm=off, но это относительно редкие ситуации, от десятков минут до суток, и не везде встречаются. Выглядит а логе, как
kernel: [13726837.683647] e1000e 0000:04:00.0: eth3: Reset adapter
kernel: [13720788.516739] igb 0000:08:00.0: eth0: Reset adapter
Постоянно на пинг оно влиять не должно, по идее, хотя название подсистемы pcie_aspm - Power Manager, само по себе подозрительно...

У меня есть сервер, где igb и пинг до www.ru около 20ms, при том, что поток там под 200 мегабит. То есть, в принципе, драйвер рабочий.
« Последнее редактирование: 18.12.2013 18:39:13 от asy »

Оффлайн asy

  • alt linux team
  • ***
  • Сообщений: 8 370
Процессор курит, 4 ядра, максимум по 10% на ядре выскакивает,
Это вот точно так ? У новых железок появилась мода разруливание прерываний софту оставлять. На всякий случай, cat /proc/interrupts. Но, при максимуме 10% на ядро, не принципиально должно быть.

Оффлайн Cool_Lamer

  • Участник
  • *
  • Сообщений: 473
Процессор курит, 4 ядра, максимум по 10% на ядре выскакивает,
Это вот точно так ? У новых железок появилась мода разруливание прерываний софту оставлять. На всякий случай, cat /proc/interrupts. Но, при максимуме 10% на ядро, не принципиально должно быть.

cat /proc/interrupts
[root@djem-nat ~]# cat /proc/interrupts
            CPU0       CPU1       CPU2       CPU3
   0:   14718180          0          0          0   IO-APIC-edge      timer
   1:          5          0          0          0   IO-APIC-edge      i8042
   9:          0          0          0          0   IO-APIC-fasteoi   acpi
  16:         45          0          0          0   IO-APIC-fasteoi   uhci_hcd:usb3
  18:          2          0          0          0   IO-APIC-fasteoi   ehci_hcd:usb1, uhci_hcd:usb6
  19:       6716       4097          0          0   IO-APIC-fasteoi   uhci_hcd:usb5
  23:          6          0          0          0   IO-APIC-fasteoi   ehci_hcd:usb2, uhci_hcd:usb4
  66:     608129          0          0          0   PCI-MSI-edge      ahci
  67:         19          0          0          0   PCI-MSI-edge      eth0
  68:   87604339    3731651          0          0   PCI-MSI-edge      eth0-rx-0
  69:   90474549          0          0          0   PCI-MSI-edge      eth0-rx-1
  70:        682   88071917    4208372    3530475   PCI-MSI-edge      eth0-rx-2
  71:    7374307   84869253          0          0   PCI-MSI-edge      eth0-rx-3
  72:    1639288          0   70422006    2401900   PCI-MSI-edge      eth0-tx-0
  73:    2711670          0   95016693          0   PCI-MSI-edge      eth0-tx-1
  74:    1969926    2697033          0   68923382   PCI-MSI-edge      eth0-tx-2
  75:    4926313          0          0   72577309   PCI-MSI-edge      eth0-tx-3
  76:          1          0          0          0   PCI-MSI-edge      eth1
  77:    2649672          0   79000455          0   PCI-MSI-edge      eth1-rx-0
  78:    6323920          0   78865592          0   PCI-MSI-edge      eth1-rx-1
  79:        704    3367017          0   77781319   PCI-MSI-edge      eth1-rx-2
  80:    7223561          0          0   78739473   PCI-MSI-edge      eth1-rx-3
  81:   72657967          0          0    2706935   PCI-MSI-edge      eth1-tx-0
  82:   76722085          0          0          0   PCI-MSI-edge      eth1-tx-1
  83:    6592491   74532276          0          0   PCI-MSI-edge      eth1-tx-2
  84:         39   74281492    3235829          0   PCI-MSI-edge      eth1-tx-3
 NMI:          0          0          0          0   Non-maskable interrupts
 LOC:    5213526    7256069    5850088    5388905   Local timer interrupts
 SPU:          0          0          0          0   Spurious interrupts
 PMI:          0          0          0          0   Performance monitoring interrupts
 IWI:          0          0          0          0   IRQ work interrupts
 RES:    6243991    4153436    1921672     465694   Rescheduling interrupts
 CAL:      23969      78735     323396     265435   Function call interrupts
 TLB:       2252       1694       1142       1018   TLB shootdowns
 TRM:          0          0          0          0   Thermal event interrupts
 THR:          0          0          0          0   Threshold APIC interrupts
 MCE:          0          0          0          0   Machine check exceptions
 MCP:        372        372        372        372   Machine check polls
 ERR:          0
 MIS:          0

Были уже такие версии)) irqbalance заглушили, прописали распределение нагрузки по ядрам в ручную. По ssh могу пустить, если желание есть, скайп в ЛС кину.
« Последнее редактирование: 18.12.2013 19:02:05 от Cool_Lamer »

Оффлайн Cool_Lamer

  • Участник
  • *
  • Сообщений: 473
asy, ну так что?
Кстати, при использовании роутера, пакеты не дропаются вообще.
« Последнее редактирование: 19.12.2013 20:19:29 от Cool_Lamer »

Оффлайн Cool_Lamer

  • Участник
  • *
  • Сообщений: 473
Спасибо, asy за помощь.
Может кому пригодится.
Фильтранули трафик на внешней eth0, с помощью tcpdump
#tcpdump -e -ni eth0 | grep -v <MAC-адрес сетевой>Увидели, что некий адрес шлёт Opcode Pause нам. Дальше разобрались с провайдером магистральным и выяснили, что у них порт на Catalyst'e "сыплется". Там принудительно стояло 100Мбс (у нас к слову, медиаконверторы по 100Мбс), выставили порт в режим "Авто" и всё стало чисто-гладко.
« Последнее редактирование: 07.03.2015 20:35:27 от Cool_Lamer »