MapReduce基礎

閱讀目錄

1、MapReduce 計算框架-執行流程

一、MapReduce 計算框架-執行流程

2、MapReduce深刻

一、示例1、文件的分發與打包

● 若是程序運行所須要的可執行文件、腳本或者配置文件在Hadoop集羣的計算節點上不存在,則首先須要將這些文件分發到集羣上才能成功進行計算。Hadoop提供了自動分發文件和壓縮包的機制,只須要在啓動Streaming做業時配置相應的參數。java

HADOOP_CMD="/usr/local/src/hadoop-1.2.1/bin/hadoop"
STREAM_JAR_PATH="/usr/local/src/hadoop-1.2.1/contrib/streaming/hadoop-streaming-1.2.1.jar"

INPUT_FILE_PATH_1="/The_Man_of_Property.txt"
OUTPUT_PATH="/output_file_broadcast"

$HADOOP_CMD fs -rmr -skipTrash $OUTPUT_PATH

# Step 1.
$HADOOP_CMD jar $STREAM_JAR_PATH \
    -input $INPUT_FILE_PATH_1 \
    -output $OUTPUT_PATH \
    -mapper "python map.py mapper_func white_list" \
    -reducer "python red.py reduer_func" \
    -jobconf "mapred.reduce.tasks=2" \
    -file ./map.py \
    -file ./red.py \
    -file ./white_list

二、示例2、文件的分發與打包

 ● 若是程序運行所須要的可執行文件、腳本或者配置文件在Hadoop集羣的計算節點上不存在,則首先須要將這些文件分發到集羣上才能成功進行計算。Hadoop提供了自動分發文件和壓縮包的機制,只須要在啓動Streaming做業時配置相應的參數。node

HADOOP_CMD="/usr/local/src/hadoop-1.2.1/bin/hadoop"
STREAM_JAR_PATH="/usr/local/src/hadoop-1.2.1/contrib/streaming/hadoop-streaming-1.2.1.jar"

INPUT_FILE_PATH_1="/The_Man_of_Property.txt"
OUTPUT_PATH="/output_cachefile_broadcast"

$HADOOP_CMD fs -rmr -skipTrash $OUTPUT_PATH

# Step 1.
$HADOOP_CMD jar $STREAM_JAR_PATH \
    -input $INPUT_FILE_PATH_1 \
    -output $OUTPUT_PATH \
    -mapper "python map.py mapper_func WWWHHH" \
    -reducer "python red.py reduer_func" \
    -jobconf "mapred.reduce.tasks=2" \
    -jobconf  "mapred.job.name=cachefile_demo" \
    -cacheFile "hdfs://master:9000/cachefile_dir/white_list/white_list.txt#WWWHHH" \
    -file "./map.py" \
    -file "./red.py"

    #-cacheFile "$HDFS_FILE_PATH#WH" \

 3、常見應用 — — 數據統計

• 特別A/B test的須要,實驗和對照統計對比各個指標
• 統計廣告天天的展現、點擊和消費總量-Hive
• 統計某視頻在一段時間內展現和點擊數量,CTR指標
• 統計某行業展點消(show、click、price)
• 統計某個query對應的PV量(hadoop培訓)python

• InputFormat
    – textInputFormat
• Mapper
   – Key-value(行號,具體數據)
 – 找出統計項
   – Key-value(統計項,1)
• Partitioner
– hashPartitioner | key fieldPartitioner
• Combiner
– 同Reducer
• Reducer
– Key-value(統計項n,k)
– M=統計項n的m’+ k
– Key-value(統計項n,m)
• OutputFormat
– textOutputFormat

 4、常見應用 — — 數據過濾

• 常見應用
    mysql

– 多份日誌中,相同時間點、用戶行爲日誌混合一塊兒
– 類表格文件存儲中,相同主鍵拼接相關的屬性
– 歷史的主數據與新增、修改數據合併sql


• 模型抽象
   – 兩份、多分數據中,使用相關的key合併、拼接對應的數據並輸出apache

 

5、常見應用 — — 數據Join

• 常見應用
緩存

    – 多份日誌中,相同時間點、用戶行爲日誌混合一塊兒
    – 類表格文件存儲中,相同主鍵拼接相關的屬性
    – 歷史的主數據與新增、修改數據合併安全

• 模型抽象
    – 從大數據中,選擇知足條件的數據並輸出服務器

 

• InputFormat
    – textInputFormat
• Mapper
    – Key-value(行號,具體數據)
    – 判斷讀取文件類型
    – 分離主key與其餘項
    – Key-value(主key,標識+其餘項)
• Partitioner
    – hashPartitioner | key fieldPartitioner
• Combiner
    – 無
• Reducer
    – Key-value(主key,標識+其餘項)
    – 保留全部的數據,直到主key發現變化或結束
    – 合併主key以及相關的其餘項
    – Key-value(主key,全部的其餘項)
• OutputFormat
    – textOutputFormat

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

一、- create table 建立內部表,create external table 建立外部表閉包

二、建議在工做中用外部表來建立

2、Hive中的Partition

●  在Hive中,表中的一個Partition對應於表下的一個目錄,全部的Partition的數據都儲存在對應的目錄中

– 例如:pvs 表中包含 ds 和 city 兩個 Partition,則
– 對應於 ds = 20090801, ctry = US 的 HDFS 子目錄爲:/wh/pvs/ds=20090801/ctry=US; – 對應於 ds = 20090801, ctry = CA 的 HDFS 子目錄爲;/wh/pvs/ds=20090801/ctry=CA

●  Partition是輔助查詢,縮小查詢範圍,加快數據的檢索速度和對數據按照必定的規格和條件進行管理。

3、Hive中的 Bucket

• hive中table能夠拆分紅partition,table和partition能夠經過‘CLUSTERED BY
’進一步分bucket,bucket中的數據能夠經過‘SORT BY’排序。
• 'set hive.enforce.bucketing = true' 能夠自動控制上一輪reduce的數量從而適 配bucket的個數,固然,用戶也能夠自主設置mapred.reduce.tasks去適配 bucket個數

• Bucket主要做用:
– 數據sampling,隨機採樣
– 提高某些查詢操做效率,例如mapside join

• 查看sampling數據:
– hive> select * from student tablesample(bucket 1 out of 2 on id); – tablesample是抽樣語句,語法:TABLESAMPLE(BUCKET x OUT OF y) – y必須是table總bucket數的倍數或者因子。hive根據y的大小,決定抽樣的比例。例如,table總共分了64份,當y=32 時,抽取(64/32=)2個bucket的數據,當y=128時,抽取(64/128=)1/2個bucket的數據。x表示從哪一個bucket開始抽 取。例如,table總bucket數爲32,tablesample(bucket 3 out of 16),表示總共抽取(32/16=)2個bucket的數據 ,分別爲第3個bucket和第(3+16=)19個bucket的數據

4、Hive數據類型

一、原生類型

– 原生類型
• TINYINT
• SMALLINT
• INT
• BIGINT
• BOOLEAN
• FLOAT
• DOUBLE
• STRING
• BINARY(Hive 0.8.0以上纔可用) • TIMESTAMP(Hive 0.8.0以上纔可用)

二、複合類型

– 複合類型
• Arrays:ARRAY<data_type> • Maps:MAP<primitive_type, data_type> ##複合類型 • Structs:STRUCT<col_name: data_type[COMMENT col_comment],……> • Union:UNIONTYPE<data_type, data_type,……>

5、Hive SQL — — Join in MR

INSERT OVERWRITE TABLE pv_users
SELECT pv.pageid, u.age
FROM page_view pv
JOIN user u
ON (pv.userid = u.userid);
SELECT pageid, age, count(1)
FROM pv_users
GROUP BY pageid, age;

6、Hive的優化

• Map的優化:

– 做業會經過input的目錄產生一個或者多個map任務。set dfs.block.size
– Map越多越好嗎?是否是保證每一個map處理接近文件塊的大小?
– 如何合併小文件,減小map數?

set mapred.max.split.size=100000000;    #100M 
set mapred.min.split.size.per.node=100000000; set mapred.min.split.size.per.rack=100000000; set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;

– 如何適當的增長map數?

set mapred.map.tasks=10;

– Map端聚合 hive.map.aggr=true 。 Mr中的Combiners.

 

• Reduce的優化:

• Reduce的優化:
– hive.exec.reducers.bytes.per.reducer;reduce任務處理的數據量
– 調整reduce的個數: • 設置reduce處理的數據量 • set mapred.reduce.tasks=10
select pt,count(1)
from popt_tbaccountcopy_mes where pt = '2012-07-04' group by pt; 寫成 select count(1) from popt_tbaccountcopy_mes where pt = '2012-07-04';
Set mapred.reduce.tasks = 100
Create table a_standby_table as select * from a distribute by XXX

• 分區裁剪優化(partition):

– Where中的分區條件,會提早生效,沒必要特地作子查詢,直接Join和GroupBy

• 笛卡爾積:

– join的時候不加on條件或者無效的on條件,Hive只能使用1個reducer來完成笛卡爾積

• Map join:

– /*+ MAPJOIN(tablelist) */,必須是小表,不要超過1G,或者50萬條記錄

• Union all:

– 先作union all再作join或group by等操做能夠有效減小MR過程,儘管是多個Select,最終只有一個
mr
Union:有去重操做,會消耗系統性能
Union all:沒有去重操做,

• Multi-insert & multi-group by:

– 從一份基礎表中按照不一樣的維度,一次組合出不一樣的數據
– FROM from_statement
–    INSERT OVERWRITE TABLE tablename1 [PARTITION (partcol1=val1)] select_statement1 group by key1 – INSERT OVERWRITE TABLE tablename2 [PARTITION(partcol2=val2 )] select_statement2 group by key2

• Automatic merge:

–   當文件大小比閾值小時,hive會啓動一個mr進行合併
–   hive.merge.mapfiles = true 是否和並 Map 輸出文件,默認爲 True – hive.merge.mapredfiles = false 是否合併 Reduce 輸出文件,默認爲 False – hive.merge.size.per.task = 256*1000*1000 合併文件的大小

• Multi-Count Distinct:

–   必須設置參數:set hive.groupby.skewindata=true;
–   select dt, count(distinct uniq_id), count(distinct ip)
–   from ods_log where dt=20170301 group by dt

• Hive的Join優化:

• 一個MR job

SELECT a.val, b.val, c.val
FROM a
JOIN b ON (a.key = b.key1) JOIN c ON (a.key = c.key1)

• 生成多個MR job

SELECT a.val, b.val, c.val
FROM a
JOIN b ON (a.key = b.key1) JOIN c ON (c.key = b.key2)

• Hive的Join優化----錶鏈接順序

•    按照JOIN順序中的最後一個表應該儘可能是大表,由於JOIN前一階段生成的數據會存在於
Reducer的buffer中,經過stream最後面的表,直接從Reducer的buffer中讀取已經緩衝的中間
結果數據(這個中間結果數據多是JOIN順序中,前面錶鏈接的結果的Key,數據量相對較小,
內存開銷就小),這樣,與後面的大表進行鏈接時,只須要從buffer中讀取緩存的Key,與大表
中的指定Key進行鏈接,速度會更快,也可能避免內存緩衝區溢出。
•    使用hint的方式啓發JOIN操做

SELECT /*+ STREAMTABLE(a) */ a.val, b.val, c.val
FROM a
JOIN b ON (a.key = b.key1) JOIN c ON (c.key = b.key1); a表被視爲大表
SELECT /*+ MAPJOIN(b) */ a.key, a.value
FROM a
JOIN b ON a.key = b.key; MAPJION會把小表所有讀入內存中,在map階段直接 拿另一個表的數據和內存中表數據作匹配,因爲在 map是進行了join操做,省去了reduce運行的效率也 會高不少.

•   左鏈接時,左表中出現的JOIN字段都保留,右表沒有鏈接上的都爲空

SELECT a.val, b.val
FROM a
LEFT OUTER JOIN b ON (a.key=b.key) WHERE a.ds='2009-07-07' AND b.ds='2009-07-07'
SELECT a.val, b.val
FROM a
LEFT OUTER JOIN b
ON (a.key=b.key AND b.ds='2009-07-07' AND a.ds='2009-07-07')

•   執行順序是,首先完成2表JOIN,而後再經過WHERE條件進行過濾,這樣在JOIN過程當中可能會
輸出大量結果,再對這些結果進行過濾,比較耗時。能夠進行優化,將WHERE條件放在ON後
,在JOIN的過程當中,就對不知足條件的記錄進行了預先過濾。

• Hive的Join優化----並行執行

• 並行實行:
  –  同步執行hive的多個階段,hive在執行過程,將一個查詢轉化成一個或者多個階段。某個特
定的job可能包含衆多的階段,而這些階段可能並不是徹底相互依賴的,也就是說能夠並行執行
的,這樣可能使得整個job的執行時間縮短。hive執行開啓:set hive.exec.parallel=true

• Hive的Join優化----數據傾斜

• 操做

•  Join
•  Group by
•  Count Distinct

• 緣由

•  key分佈不均致使的
•  人爲的建表疏忽
•  業務數據特色

• 症狀

•  任務進度長時間維持在99%(或100%),查看任務監控頁面,發現只有少許(1個或幾個)reduce子任務未完成。
•  查看未完成的子任務,能夠看到本地讀寫數據量積累很是大,一般超過10GB能夠認定爲發生數據傾斜。

• 傾斜度

•  平均記錄數超過50w且最大記錄數是超過平均記錄數的4倍。
•  最長時長比平均時長超過4分鐘,且最大時長超過平均時長的2倍。

• 萬能方法

•  hive.groupby.skewindata=true

• Hive的Join優化----數據傾斜----大小表關聯

• 緣由
  • Hive在進行join時,按照join的key進行分發,而在join左邊的表的數據會首先讀入內存,若是左邊表的key相對
分散,讀入內存的數據會比較小,join任務執行會比較快;而若是左邊的表key比較集中,而這張表的數據量很大,
那麼數據傾斜就會比較嚴重,而若是這張表是小表,則仍是應該把這張表放在join左邊。
• 思路
  • 將key相對分散,而且數據量小的表放在join的左邊,這樣能夠有效減小內存溢出錯誤發生的概率
  • 使用map join讓小的維度表先進內存。
• 方法
  • Small_table join big_table

• Hive的Join優化----數據傾斜----大大表關聯

• 緣由
  • 日誌中有一部分的userid是空或者是0的狀況,致使在用user_id進行hash分桶的時候,會將日誌中userid爲0或者
空的數據分到一塊兒,致使了過大的斜率。
• 思路
  • 把空值的key變成一個字符串加上隨機數,把傾斜的數據分到不一樣的reduce上,因爲null值關聯不上,處理後並不
影響最終結果。
• 方法
  • on case when (x.uid = '-' or x.uid = '0‘ or x.uid is null) then concat('dp_hive_search',rand()) else x.uid
end = f.user_id

7、Hive的搭建

一、Mysql配置

•  默認狀況下,Hive的元數據信息存儲在內置的Derby數據中。
•  Hive支持將元數據存儲在MySQL中

• 元數據存儲配置:
     – 【本地配置1】:默認
     – 【本地配置2】:本地搭建mysql,經過localhost:Port方式訪問
     – 【遠程配置】:遠程搭建mysql,經過IP:Port方式訪問
• 第一步:安裝MySQL服務器端和MySQL客戶端,並啓動MySQL服務
• 安裝:
    – yum install mysql
    – yum install mysql-server • 啓動: – /etc/init.d/mysqld start • 設置用戶名和密碼: – mysqladmin -u root password '111111‘ • 測試登陸是否成功: – mysql -uroot -p111111

二、安裝Hive

①下載apache-hive-0.13.0-bin.tgz,並解壓:
②在conf目錄下,建立hive-site.xml配置文件:

View Code

③ 修改profile,配置環境變量:

④將mysql-connector-java-5.1.41-bin.jar拷貝到hive home的lib目錄下,以支
持hive對mysql的操做

注意:

測試hive的前提得打開hadoop集羣,start-all.sh

⑤hive在建立表的過程當中,報以下錯誤處理:

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:Got exception: org.apache.hadoop.ipc.RemoteException org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/hive/warehouse/w_a. Name node is in safe mode.

處理方法:

bin/hadoop dfsadmin -safemode leave 
關閉Hadoop的安全模式

⑥測試hive

hive> create EXTERNAL TABLE w_a(    usrid STRING,    age STRING,    sex STRING)ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'    LINES TERMINATED BY '\n';    #建立表
OK
Time taken: 0.309 seconds hive> show tables; OK w_a Time taken: 0.049 seconds, Fetched: 1 row(s) hive> drop table w_a; #刪除表 OK 導入數據: [root@master badou]# hive -f create_ex_table.sql #-f指定sql文件導入到hive中  Logging initialized using configuration in jar:file:/usr/local/src/apache-hive-0.13.0-bin/lib/hive-common-0.13.0.jar!/hive-log4j.properties OK Time taken: 1.168 seconds OK Time taken: 0.077 seconds 導入文本到hive: hive> LOAD DATA LOCAL INPATH '/home/ba/a.txt' OVERWRITE INTO TABLE w_a; #導入a.txt 文本到hive中 Copying data from file:/home/badou/a.txt Copying file: file:/home/badou/a.txt Failed with exception java.io.IOException: File /tmp/hive-root/hive_2019-04-28_05-20-33_879_4807090646149011006-1/-ext-10000/a.txt could only be replicated to 0 nodes, instead of 1

 

 

 

 

 

 

 

 

 

 

 

 

5、函數嵌套

def father(name):
    print('from father %s' %name)
    def son():
        print('from the son')
        def grandson():
            print('from the grandson')
        grandson()
    son()

father('朱銳')

6、閉包

一、閉包

def father(name):
    print('from father %s' %name)
    def son():
        print('from the son')
        def grandson():
            print('from the grandson')
        grandson()
    son()

father('朱銳')

'''
閉包
'''

def father(name):
    def son():
        # name='simon1'
        print('個人爸爸是%s' %name)
        def grandson():
            print('個人爺爺是%s' %name)
        grandson()
    son()
father('simon')

二、函數閉包裝飾器基本實現

import time
def timmer(func):
    def wrapper():
        # print(func)
        start_time=time.time()
        func() #就是在運行test()
        stop_time=time.time()
        print('運行時間是%s' %(stop_time-start_time))
    return wrapper
@timmer #語法糖,這個是重點

def test():
    time.sleep(3)
    print('test函數運行完畢')

# res=timmer(test) #返回的是wrapper的地址
# res() #執行的是wrapper()

# test=timmer(test) #返回的是wrapper的地址
# test() #執行的是wrapper()

test()
'''
語法糖
'''
# @timmer #就至關於 test=timmer(test)

三、函數閉包加上返回值

#未加返回值
import time
def timmer(func):
    def wrapper():
        # print(func)
        start_time=time.time()
        func() #就是在運行test()
        stop_time=time.time()
        print('運行時間是%s' %(stop_time-start_time))
        return 123
    return wrapper
@timmer #語法糖

def test():
    time.sleep(3)
    print('test函數運行完畢')
    return '這是test的返回值'
res=test() #就是在運行wrapper
print(res)

運行結果以下:
C:\Python35\python3.exe G:/python_s3/day20/加上返回值.py
test函數運行完畢
運行時間是3.000171661376953
123
#加上返回值
import time
def timmer(func):
    def wrapper():
        # print(func)
        start_time=time.time()
        res=func() #就是在運行test()     ##主要修改這裏1
        stop_time=time.time()
        print('運行時間是%s' %(stop_time-start_time))
        return res     ##修改這裏2
    return wrapper
@timmer #語法糖

def test():
    time.sleep(3)
    print('test函數運行完畢')
    return '這是test的返回值'
res=test() #就是在運行wrapper
print(res)

運行結果以下:
C:\Python35\python3.exe G:/python_s3/day20/加上返回值.py
test函數運行完畢
運行時間是3.000171661376953
這是test的返回值

四、函數閉包加上參數

import time
def timmer(func):
    def wrapper(name,age):   #加入參數,name,age
        # print(func)
        start_time=time.time()
        res=func(name,age) ##加入參數,name,age
        stop_time=time.time()
        print('運行時間是%s' %(stop_time-start_time))
        return res
    return wrapper
@timmer #語法糖

def test(name,age): #加入參數,name,age
    time.sleep(3)
    print('test函數運行完畢,名字是【%s】,年齡是【%s】' % (name,age))
    return '這是test的返回值'
res=test('simon',18) #就是在運行wrapper
print(res)

使用可變長參數代碼以下:達到的效果是傳參靈活

import time
def timmer(func):
    def wrapper(*args,**kwargs): #test('simon',18)  args=('simon') kwargs={'age':18}
        # print(func)
        start_time=time.time()
        res=func(*args,**kwargs) #就是在運行test()     func(*('simon'),**{'age':18})
        stop_time=time.time()
        print('運行時間是%s' %(stop_time-start_time))
        return res
    return wrapper
@timmer #語法糖

def test(name,age):
    time.sleep(3)
    print('test函數運行完畢,名字是【%s】,年齡是【%s】' % (name,age))
    return '這是test的返回值'
def test1(name,age,gender):
    time.sleep(1)
    print('test函數運行完畢,名字是【%s】,年齡是【%s】,性別是【%s】' % (name,age,gender))
res=test('simon',18) #就是在運行wrapper
print(res)

test1('simon',18,'male')

 

五、裝飾器的使用

#無參裝飾器
import time
def timmer(func):
    def wrapper(*args,**kwargs):
        start_time=time.time()
        res=func(*args,**kwargs)
        stop_time=time.time()
        print('run time is %s' %(stop_time-start_time))
        return res
    return wrapper

@timmer
def foo():
    time.sleep(3)
    print('from foo')
foo()
#有參裝飾器
def auth(driver='file'):
    def auth2(func):
        def wrapper(*args,**kwargs):
            name=input("user: ")
            pwd=input("pwd: ")

            if driver == 'file':
                if name == 'simon' and pwd == '123':
                    print('login successful')
                    res=func(*args,**kwargs)
                    return res
            elif driver == 'ldap':
                print('ldap')
        return wrapper
    return auth2

@auth(driver='file')
def foo(name):
    print(name)

foo('simon')

 #驗證功能裝飾器

#驗證功能裝飾器
user_list=[
    {'name':'simon','passwd':'123'},
    {'name':'zhurui','passwd':'123'},
    {'name':'william','passwd':'123'},
    {'name':'zhurui1','passwd':'123'},
]
current_dic={'username':None,'login':False}


def auth_func(func):
    def wrapper(*args,**kwargs):
        if current_dic['username'] and current_dic['login']:
            res=func(*args,**kwargs)
            return res
        username=input('用戶名:').strip()
        passwd=input('密碼:').strip()
        for user_dic in user_list:
            if username == user_dic['name'] and passwd == user_dic['passwd']:
                current_dic['username']=username
                current_dic['login']=True
                res=func(*args,**kwargs)
                return res
        else:
            print('用戶名或者密碼錯誤')

        # if username == 'simon' and passwd == '123':
        #     user_dic['username']=username
        #     user_dic['login']=True
        #     res=func(*args,**kwargs)
        #     return res
        # else:
        #     print('用戶名或密碼錯誤')
    return wrapper

@auth_func
def index():
    print('歡迎來到某寶首頁')
@auth_func
def home(name):
    print('歡迎回家%s' %name)
@auth_func
def shopping_car(name):
    print('%s購物車裏有[%s,%s,%s]' %(name,'餐具','沙發','電動車'))

print('before----->',current_dic)
index()
print('after---->',current_dic)
home('simon')
# shopping_car('simon')

#帶參數驗證功能裝飾器

#帶參數驗證功能裝飾器
user_list=[
    {'name':'simon','passwd':'123'},
    {'name':'zhurui','passwd':'123'},
    {'name':'william','passwd':'123'},
    {'name':'zhurui1','passwd':'123'},
]
current_dic={'username':None,'login':False}

def auth(auth_type='filedb'):
    def auth_func(func):
        def wrapper(*args,**kwargs):
            print('認證類型是',auth_type)
            if auth_type == 'filedb':
                if current_dic['username'] and current_dic['login']:
                    res = func(*args, **kwargs)
                    return res
                username=input('用戶名:').strip()
                passwd=input('密碼:').strip()
                for user_dic in user_list:
                    if username == user_dic['name'] and passwd == user_dic['passwd']:
                        current_dic['username']=username
                        current_dic['login']=True
                        res = func(*args, **kwargs)
                        return res
                else:
                    print('用戶名或者密碼錯誤')
            elif auth_type == 'ldap':
                print('這玩意沒搞過,不知道怎麼玩')
                res = func(*args, **kwargs)
                return res
            else:
                print('鬼才知道你用的什麼認證方式')
                res = func(*args, **kwargs)
                return res

        return wrapper
    return auth_func

@auth(auth_type='filedb') #auth_func=auth(auth_type='filedb')-->@auth_func 附加了一個auth_type  --->index=auth_func(index)
def index():
    print('歡迎來到某寶主頁')

@auth(auth_type='ldap')
def home(name):
    print('歡迎回家%s' %name)
#
@auth(auth_type='sssssss')
def shopping_car(name):
    print('%s的購物車裏有[%s,%s,%s]' %(name,'奶茶','妹妹','娃娃'))

# print('before-->',current_dic)
# index()
# print('after--->',current_dic)
# home('simon')
shopping_car('simon')
相關文章
相關標籤/搜索