Linux網卡驅動程序編寫
方法都很短小以盡量減少系統負荷。(translatedfromarticlewrittenbyAlanCox)
常用的方法包括:
.alloc_skb()申請一個sk_buff并對它初始化。返回就是申請到的sk_buff。
.dev_alloc_skb()類似alloc_skb,在申請好緩沖區后,保留16字節的幀頭空間。主要用在Ethernet驅動程序。
.kfree_skb()釋放一個sk_buff。
.skb_clone()復制一個sk_buff,但不復制數據部分。
.skb_copy()完全復制一個sk_buff。
.skb_dequeue()從一個sk_buff鏈表里取出第一個元素。返回取出的sk_buff,如果鏈表空則返回NULL。這是常用的一個操作。
.skb_queue_head()在一個sk_buff鏈表頭放入一個元素。
.skb_queue_tail()在一個sk_buff鏈表尾放入一個元素。這也是常用的一個操作。網絡數據的處理主要是對一個先進先出隊列的管理,skb_queue_tail()
和skb_dequeue()完成這個工作。
.skb_insert()在鏈表的某個元素前插入一個元素。
.skb_append()在鏈表的某個元素后插入一個元素。一些協議(如TCP)對沒按順序到達的數據進行重組時用到skb_insert()和skb_append()。
.skb_reserve()在一個申請好的sk_buff的緩沖區里保留一塊空間。這個空間一般是用做下一層協議的頭空間的。
.skb_put()在一個申請好的sk_buff的緩沖區里為數據保留一塊空間。在
alloc_skb以后,申請到的sk_buff的緩沖區都是處于空(free)狀態,有一個tail指針指向free空間,實際上開始時tail就指向緩沖區頭。skb_reserve()
在free空間里申請協議頭空間,skb_put()申請數據空間。見下面的圖。
.skb_push()把sk_buff緩沖區里數據空間往前移。即把Headroom中的空間移一部分到Dataarea。
.skb_pull()把sk_buff緩沖區里Dataarea中的空間移一部分到Headroom中。
--------------------------------------------------
|Tailroom(free)|
--------------------------------------------------
Afteralloc_skb()
--------------------------------------------------
|Headroom|Tailroom(free)|
--------------------------------------------------
Afterskb_reserve()
--------------------------------------------------
|Headroom|Dataarea|Tailroom(free)|
--------------------------------------------------
Afterskb_put()
--------------------------------------------------
|Head|skb_|Data|Tailroom(free)|
|room|push|||
||Dataarea||
--------------------------------------------------
Afterskb_push()
--------------------------------------------------
|Head|skb_|Dataarea|Tailroom(free)|
||pull|||
|Headroom|||
--------------------------------------------------
Afterskb_pull()
3.1中斷共享
Linux系統運行幾個設備共享同一個中斷。需要共享的話,在申請的時候指明共享方式。系統提供的request_irq()調用的定義:
intrequest_irq(unsignedintirq,
void(*handler)(intirq,void*dev_id,structpt_regs*regs),
unsignedlongirqflags,
constchar*devname,
void*dev_id);
如果共享中斷,irqflags設置SA_SHIRQ屬性,這樣就允許別的設備申請同一個中斷。需要注意所有用到這個中斷的設備在調用request_irq()都必須設置這個屬性。系統在回調每個中斷處理程序時,可以用dev_id這個參數找到相應的設備。一般dev_id就設為device結構本身。系統處理共享中斷是用各自的dev_id參數依次調用每一個中斷處理程序。
3.2硬件發送忙時的處理
主CPU的處理能力一般比網絡發送要快,所以經常會遇到系統有數據要發,但上一包數據網絡設備還沒發送完。因為在Linux里網絡設備驅動程序一般不做數據緩存,不能發送的數據都是通知系統發送不成功,所以必須要有一個機制在硬件不忙時及時通知系統接著發送下面的數據。
一般對發送忙的處理在前面設備的發送方法(hard_start_xmit)里已經描述過,即如果發送忙,置tbusy為1。處理完發送數據后,在發送結束中斷里清tbusy,同時用mark_bh()調用通知系統繼續發送。
但在具體實現我的驅動程序時發現,這樣的處理系統好象并不能及時地知道硬件已經空閑了,即在mark_bh()以后,系統要等一段時間才會接著發送。造成發送效率很低。2M線路只有10%不到的使用率。內核版本為2.0.35。
我最后的實現是不把tbusy置1,讓系統始終認為硬件空閑,但是報告發送不成功。系統會一直嘗試重發。這樣處理就運行正常了。但是遍循內核源碼中的網絡驅動程序,似乎沒有這樣處理的。不知道癥結在哪里。
3.3流量控制(flowcontrol)
網絡數據的發送和接收都需要流量控制。這些控制是在系統里實現的,不需要驅動程序做工作。每個設備數據結構里都有一個參數dev->tx_queue_len,這個參數標明發送時最多緩存的數據包。在Linux系統里以太網設備(10/100Mbps)tx_queue_len一般設置為100,串行線路(異步串口)為10。實際上如果看源碼可以知道,設置了dev->tx_queue_len并不是為緩存這些數據申請了空間。這個參數只是在收到協議層的數據包時判斷發送隊列里的數據是不是到了tx_queue_len的限度,以決定這一包數據加不加進發送隊列。發送時另一個方面的流控是更高層協議的發送窗口(TCP協議里就有發送窗口)。達到了窗口大小,高層協議就不會再發送數據。
接收流控也分兩個層次。netif_rx()緩存的數據包有限制。另外高層協議也會有一個最大的等待處理的數據量。
發送和接收流控處理在net/core/dev.c的do_dev_queue_xmit()和netif_rx()中。
3.4調試
很多Linux的驅動程序都是編譯進內核的,形成一個大的內核文件。但對調試來說,這是相當麻煩的。調試驅動程序可以用module方式加載。支持模塊方式的驅動程序必須提供兩個函數:intinit_module(void)和voidcleanup_module(void)。init_module()在加載此模塊時調用,在這個函數里可以register_netdev()注冊設備。init_module()返回0表示成功,返回負表示失敗。cleanup_module()在驅動程序被卸載時調用,清除占用的資源,調用unregister_netdev()。
linux操作系統文章專題:linux操作系統詳解(linux不再難懂)
評論