1500バイトのパケットが100GbEで流れてくる時、1パケットの処理に使える時間は120nsで、DRAMに何かを読みに行くとそれだけで50nsから100nsくらい持っていかれる為「CPUのキャッシュに当たらなければ即死」というマゾプログラミング環境が誕生するらしい
-
-
CPUが遅いからDMAを使うというのが当たり前に…ならないか…
-
そういえば、IntelのイカすNICとイカすCPUの組み合わせでは、NICがCPUのL3キャッシュに直接受信したパケットをDMAしてくるらしい。
- 3 more replies
New conversation -
Loading seems to be taking a while.
Twitter may be over capacity or experiencing a momentary hiccup. Try again or visit Twitter Status for more information.