繼上一篇介紹了數據包的接收過程後,本文將介紹在Linux系統中,數據包是如何一步一步從應用程序到網卡並最終發送出去的。html
若是英文沒有問題,強烈建議閱讀後面參考裏的文章,裏面介紹的更詳細。linux
本文只討論以太網的物理網卡,而且以一個UDP包的發送過程做爲示例,因爲本人對協議棧的代碼不熟,有些地方可能理解有誤,歡迎指正segmentfault
+-------------+ | Application | +-------------+ | | ↓ +------------------------------------------+ | socket(AF_INET, SOCK_DGRAM, IPPROTO_UDP) | +------------------------------------------+ | | ↓ +-------------------+ | sendto(sock, ...) | +-------------------+ | | ↓ +--------------+ | inet_sendmsg | +--------------+ | | ↓ +---------------+ | inet_autobind | +---------------+ | | ↓ +-----------+ | UDP layer | +-----------+
socket(...): 建立一個socket結構體,並初始化相應的操做函數,因爲咱們定義的是UDP的socket,因此裏面存放的都是跟UDP相關的函數app
sendto(sock, ...): 應用層的程序(Application)調用該函數開始發送數據包,該函數數會調用後面的inet_sendmsgsocket
inet_sendmsg: 該函數主要是檢查當前socket有沒有綁定源端口,若是沒有的話,調用inet_autobind分配一個,而後調用UDP層的函數tcp
inet_autobind: 該函數會調用socket上綁定的get_port函數獲取一個可用的端口,因爲該socket是UDP的socket,因此get_port函數會調到UDP代碼裏面的相應函數。函數
| | ↓ +-------------+ | udp_sendmsg | +-------------+ | | ↓ +----------------------+ | ip_route_output_flow | +----------------------+ | | ↓ +-------------+ | ip_make_skb | +-------------+ | | ↓ +------------------------+ | udp_send_skb(skb, fl4) | +------------------------+ | | ↓ +----------+ | IP layer | +----------+
udp_sendmsg: udp模塊發送數據包的入口,該函數較長,在該函數中會先調用ip_route_output_flow獲取路由信息(主要包括源IP和網卡),而後調用ip_make_skb構造skb結構體,最後將網卡的信息和該skb關聯。oop
ip_route_output_flow: 該函數會根據路由表和目的IP,找到這個數據包應該從哪一個設備發送出去,若是該socket沒有綁定源IP,該函數還會根據路由表找到一個最合適的源IP給它。 若是該socket已經綁定了源IP,但根據路由表,從這個源IP對應的網卡無法到達目的地址,則該包會被丟棄,因而數據發送失敗,sendto函數將返回錯誤。該函數最後會將找到的設備和源IP塞進flowi4結構體並返回給udp_sendmsgthis
ip_make_skb: 該函數的功能是構造skb包,構造好的skb包裏面已經分配了IP包頭,而且初始化了部分信息(IP包頭的源IP就在這裏被設置進去),同時該函數會調用__ip_append_dat,若是須要分片的話,會在__ip_append_data函數中進行分片,同時還會在該函數中檢查socket的send buffer是否已經用光,若是被用光的話,返回ENOBUFS指針
udp_send_skb(skb, fl4) 主要是往skb裏面填充UDP的包頭,同時處理checksum,而後調用IP層的相應函數。
| | ↓ +-------------+ | ip_send_skb | +-------------+ | | ↓ +-------------------+ +-------------------+ +---------------+ | __ip_local_out_sk |------>| NF_INET_LOCAL_OUT |------>| dst_output_sk | +-------------------+ +-------------------+ +---------------+ | | ↓ +------------------+ +----------------------+ +-----------+ | ip_finish_output |<-------| NF_INET_POST_ROUTING |<------| ip_output | +------------------+ +----------------------+ +-----------+ | | ↓ +-------------------+ +------------------+ +----------------------+ | ip_finish_output2 |----->| dst_neigh_output |------>| neigh_resolve_output | +-------------------+ +------------------+ +----------------------+ | | ↓ +----------------+ | dev_queue_xmit | +----------------+
ip_send_skb: IP模塊發送數據包的入口,該函數只是簡單的調用一下後面的函數
__ip_local_out_sk: 設置IP報文頭的長度和checksum,而後調用下面netfilter的鉤子
NF_INET_LOCAL_OUT: netfilter的鉤子,能夠經過iptables來配置怎麼處理該數據包,若是該數據包沒被丟棄,則繼續往下走
dst_output_sk: 該函數根據skb裏面的信息,調用相應的output函數,在咱們UDP IPv4這種狀況下,會調用ip_output
ip_output: 將上面udp_sendmsg獲得的網卡信息寫入skb,而後調用NF_INET_POST_ROUTING的鉤子
NF_INET_POST_ROUTING: 在這裏,用戶有可能配置了SNAT,從而致使該skb的路由信息發生變化
ip_finish_output: 這裏會判斷通過了上一步後,路由信息是否發生變化,若是發生變化的話,須要從新調用dst_output_sk(從新調用這個函數時,可能就不會再走到ip_output,而是走到被netfilter指定的output函數裏,這裏有多是xfrm4_transport_output),不然往下走
ip_finish_output2: 根據目的IP到路由表裏面找到下一跳(nexthop)的地址,而後調用__ipv4_neigh_lookup_noref去arp表裏面找下一跳的neigh信息,沒找到的話會調用__neigh_create構造一個空的neigh結構體
dst_neigh_output: 在該函數中,若是上一步ip_finish_output2沒獲得neigh信息,那麼將會走到函數neigh_resolve_output中,不然直接調用neigh_hh_output,在該函數中,會將neigh信息裏面的mac地址填到skb中,而後調用dev_queue_xmit發送數據包
neigh_resolve_output: 該函數裏面會發送arp請求,獲得下一跳的mac地址,而後將mac地址填到skb中並調用dev_queue_xmit
| | ↓ +----------------+ +----------------| dev_queue_xmit | | +----------------+ | | | | | ↓ | +-----------------+ | | Traffic Control | | +-----------------+ | loopback | | or +--------------------------------------------------------------+ | IP tunnels ↓ | | ↓ | | +---------------------+ Failed +----------------------+ +---------------+ +----------->| dev_hard_start_xmit |---------->| raise NET_TX_SOFTIRQ |- - - - >| net_tx_action | +---------------------+ +----------------------+ +---------------+ | +----------------------------------+ | | ↓ ↓ +----------------+ +------------------------+ | ndo_start_xmit | | packet taps(AF_PACKET) | +----------------+ +------------------------+
dev_queue_xmit: netdevice子系統的入口函數,在該函數中,會先獲取設備對應的qdisc,若是沒有的話(如loopback或者IP tunnels),就直接調用dev_hard_start_xmit,不然數據包將通過Traffic Control模塊進行處理
Traffic Control: 這裏主要是進行一些過濾和優先級處理,在這裏,若是隊列滿了的話,數據包會被丟掉,詳情請參考文檔,這步完成後也會走到dev_hard_start_xmit
dev_hard_start_xmit: 該函數中,首先是拷貝一份skb給「packet taps」,tcpdump就是從這裏獲得數據的,而後調用ndo_start_xmit。若是dev_hard_start_xmit返回錯誤的話(大部分狀況多是NETDEV_TX_BUSY),調用它的函數會把skb放到一個地方,而後拋出軟中斷NET_TX_SOFTIRQ,交給軟中斷處理程序net_tx_action稍後重試(若是是loopback或者IP tunnels的話,失敗後不會有重試的邏輯)
ndo_start_xmit: 這是一個函數指針,會指向具體驅動發送數據的函數
ndo_start_xmit會綁定到具體網卡驅動的相應函數,到這步以後,就歸網卡驅動管了,不一樣的網卡驅動有不一樣的處理方式,這裏不作詳細介紹,其大概流程以下:
將skb放入網卡本身的發送隊列
通知網卡發送數據包
網卡發送完成後發送中斷給CPU
收到中斷後進行skb的清理工做
在網卡驅動發送數據包過程當中,會有一些地方須要和netdevice子系統打交道,好比網卡的隊列滿了,須要告訴上層不要再發了,等隊列有空閒的時候,再通知上層接着發數據。
SO_SNDBUF: 從上面的流程中能夠看出來,對於UDP來講,沒有一個對應send buffer存在,SO_SNDBUF只是一個限制,當這個socket分配的skb佔用的內存超過這個值的時候,會返回ENOBUFS,因此說只要不出現ENOBUFS錯誤,把這個值調大沒有意義。從sendto函數的幫助文件裏面看到這樣一句話:(Normally, this does not occur in Linux. Packets are just silently dropped when a device queue overflows.)。這裏的device queue應該指的是Traffic Control裏面的queue,說明在linux裏面,默認的SO_SNDBUF值已經夠queue用了,疑問的地方是,queue的長度和個數是能夠配置的,若是配置太大的話,按道理應該有可能會出現ENOBUFS的狀況。
txqueuelen: 不少地方都說這個是控制qdisc裏queue的長度的,但貌似只是部分類型的qdisc用了該配置,如linux默認的pfifo_fast。
hardware RX: 通常網卡都有一個本身的ring queue,這個queue的大小能夠經過ethtool來配置,當驅動收到發送請求時,通常是放到這個queue裏面,而後通知網卡發送數據,當這個queue滿的時候,會給上層調用返回NETDEV_TX_BUSY
packet taps(AF_PACKET): 當第一次發送數據包和重試發送數據包時,都會通過這裏,若是發生重試的狀況的話,不肯定tcpdump是否會抓到兩次包,按道理應該不會,多是我哪裏沒看懂