『壹』 華為首席科學家李航博士:我是怎麼樣理解機器學習的
1:個人覺得李航的《統計學習方法》還算可以,屬於基本的機器學習入門書籍。2:具體可以結合andrewng的機器學習視頻看--->可以去網易公開課找到,斯坦福大學機器學習3:嘗試實現一些最基礎的演算法。最簡單的比如樸素貝葉斯分類器,我當年實現第一個機器學習演算法,現在想想還是很激動的。後面的像SVM,決策樹也可以試試。4:一定要做一點應用,不然,感覺都是理論,一點感覺都不會有的。比如上面的樸素貝葉斯分類器就可以做一個垃圾郵件過濾系統。5:還有一本書似乎是韓家煒的數據挖掘導論,沒讀過,但是網上推薦挺多的。6:等你到了一定水平,就可以啃啃PRML了,這個太經典了,有點類似演算法中的演算法導論7:至於後來,好吧,我還在啃PRML。。。。讓其他人說吧。。。
『貳』 人工智慧如何應用到生活的各個地方的
在當今社會,人們傳遞信息的方式有很多,相對正式的方式應該是郵件傳遞。例如,大多數人在生活和工作中幾乎每天都需要發送一封電子郵件,而且在書寫過程中有許多錯別字,因此此時有必要激活語法檢查和拼寫檢查等工具來幫助檢查電子郵件中的書寫錯誤,這些工具使用人工智慧和自然語言處理。此外,垃圾郵件過濾也應用於人工智慧技術,更重要的是,反病毒軟體還使用機器學習來保護您的電子郵件帳戶。
我相信大多數人都有早上醒來第一眼就看手機的習慣,但是我們應該知道當代人使用的大多數手機都是智能手機,所以解鎖這種智能設備的方法是生物識別技術,比如人臉識別,我們在支付寶支付的時候可以使用人臉識別。換句話說,每個人每天都在使用人工智慧技術來實現這一功能。
『叄』 述人工智慧,計算機視覺和機器學習的區別和聯系
從概念的提出到走向繁榮
1956年,幾個計算機科學家相聚在達特茅斯會議(Dartmouth Conferences),提出了「人工智慧」的概念。其後,人工智慧就一直縈繞於人們的腦海之中,並在科研實驗室中慢慢孵化。之後的幾十年,人工智慧一直在兩極反轉,或被稱作人類文明耀眼未來的預言;或者被當成技術瘋子的狂想扔到垃圾堆里。坦白說,直到2012年之前,這兩種聲音還在同時存在。
過去幾年,尤其是2015年以來,人工智慧開始大爆發。很大一部分是由於GPU的廣泛應用,使得並行計算變得更快、更便宜、更有效。當然,無限拓展的存儲能力和驟然爆發的數據洪流(大數據)的組合拳,也使得圖像數據、文本數據、交易數據、映射數據全面海量爆發。
讓我們慢慢梳理一下計算機科學家們是如何將人工智慧從最早的一點點苗頭,發展到能夠支撐那些每天被數億用戶使用的應用的。
人工智慧(Artificial Intelligence)——為機器賦予人的智能
成王(King me):能下國際跳棋的程序是早期人工智慧的一個典型應用,在二十世紀五十年代曾掀起一陣風潮。(譯者註:國際跳棋棋子到達底線位置後,可以成王,成王棋子可以向後移動)。
早在1956年夏天那次會議,人工智慧的先驅們就夢想著用當時剛剛出現的計算機來構造復雜的、擁有與人類智慧同樣本質特性的機器。這就是我們現在所說的「強人工智慧」(General AI)。這個無所不能的機器,它有著我們所有的感知(甚至比人更多),我們所有的理性,可以像我們一樣思考。
人們在電影里也總是看到這樣的機器:友好的,像星球大戰中的C-3PO;邪惡的,如終結者。強人工智慧現在還只存在於電影和科幻小說中,原因不難理解,我們還沒法實現它們,至少目前還不行。
我們目前能實現的,一般被稱為「弱人工智慧」(Narrow AI)。弱人工智慧是能夠與人一樣,甚至比人更好地執行特定任務的技術。例如,Pinterest上的圖像分類;或者Facebook的人臉識別。
這些是弱人工智慧在實踐中的例子。這些技術實現的是人類智能的一些具體的局部。但它們是如何實現的?這種智能是從何而來?這就帶我們來到同心圓的裡面一層,機器學習。
機器學習—— 一種實現人工智慧的方法
健康食譜(Spam free diet):機器學習能夠幫你過濾電子信箱里的(大部分)垃圾郵件。(譯者註:英文中垃圾郵件的單詞spam來源於二戰中美國曾大量援助英國的午餐肉品牌SPAM。直到六十年代,英國的農業一直沒有從二戰的損失中恢復,因而從美國大量進口了這種廉價的罐頭肉製品。據傳聞不甚好吃且充斥市場。)
機器學習最基本的做法,是使用演算法來解析數據、從中學習,然後對真實世界中的事件做出決策和預測。與傳統的為解決特定任務、硬編碼的軟體程序不同,機器學習是用大量的數據來「訓練」,通過各種演算法從數據中學習如何完成任務。
機器學習直接來源於早期的人工智慧領域。傳統演算法包括決策樹學習、推導邏輯規劃、聚類、強化學習和貝葉斯網路等等。眾所周知,我們還沒有實現強人工智慧。早期機器學習方法甚至都無法實現弱人工智慧。
機器學習最成功的應用領域是計算機視覺,雖然也還是需要大量的手工編碼來完成工作。人們需要手工編寫分類器、邊緣檢測濾波器,以便讓程序能識別物體從哪裡開始,到哪裡結束;寫形狀檢測程序來判斷檢測對象是不是有八條邊;寫分類器來識別字母「ST-O-P」。使用以上這些手工編寫的分類器,人們總算可以開發演算法來感知圖像,判斷圖像是不是一個停止標志牌。
這個結果還算不錯,但並不是那種能讓人為之一振的成功。特別是遇到雲霧天,標志牌變得不是那麼清晰可見,又或者被樹遮擋一部分,演算法就難以成功了。這就是為什麼前一段時間,計算機視覺的性能一直無法接近到人的能力。它太僵化,太容易受環境條件的干擾。
隨著時間的推進,學習演算法的發展改變了一切。
深度學習——一種實現機器學習的技術
放貓(Herding Cats):從YouTube視頻裡面尋找貓的圖片是深度學習傑出性能的首次展現。(譯者註:herdingcats是英語習語,照顧一群喜歡自由,不喜歡馴服的貓,用來形容局面混亂,任務難以完成。)
人工神經網路(Artificial Neural Networks)是早期機器學習中的一個重要的演算法,歷經數十年風風雨雨。神經網路的原理是受我們大腦的生理結構——互相交叉相連的神經元啟發。但與大腦中一個神經元可以連接一定距離內的任意神經元不同,人工神經網路具有離散的層、連接和數據傳播的方向。
例如,我們可以把一幅圖像切分成圖像塊,輸入到神經網路的第一層。在第一層的每一個神經元都把數據傳遞到第二層。第二層的神經元也是完成類似的工作,把數據傳遞到第三層,以此類推,直到最後一層,然後生成結果。
每一個神經元都為它的輸入分配權重,這個權重的正確與否與其執行的任務直接相關。最終的輸出由這些權重加總來決定。
我們仍以停止(Stop)標志牌為例。將一個停止標志牌圖像的所有元素都打碎,然後用神經元進行「檢查」:八邊形的外形、救火車般的紅顏色、鮮明突出的字母、交通標志的典型尺寸和靜止不動運動特性等等。神經網路的任務就是給出結論,它到底是不是一個停止標志牌。神經網路會根據所有權重,給出一個經過深思熟慮的猜測——「概率向量」。
這個例子里,系統可能會給出這樣的結果:86%可能是一個停止標志牌;7%的可能是一個限速標志牌;5%的可能是一個風箏掛在樹上等等。然後網路結構告知神經網路,它的結論是否正確。
即使是這個例子,也算是比較超前了。直到前不久,神經網路也還是為人工智慧圈所淡忘。其實在人工智慧出現的早期,神經網路就已經存在了,但神經網路對於「智能」的貢獻微乎其微。主要問題是,即使是最基本的神經網路,也需要大量的運算。神經網路演算法的運算需求難以得到滿足。
不過,還是有一些虔誠的研究團隊,以多倫多大學的Geoffrey Hinton為代表,堅持研究,實現了以超算為目標的並行演算法的運行與概念證明。但也直到GPU得到廣泛應用,這些努力才見到成效。
我們回過頭來看這個停止標志識別的例子。神經網路是調制、訓練出來的,時不時還是很容易出錯的。它最需要的,就是訓練。需要成百上千甚至幾百萬張圖像來訓練,直到神經元的輸入的權值都被調製得十分精確,無論是否有霧,晴天還是雨天,每次都能得到正確的結果。
只有這個時候,我們才可以說神經網路成功地自學習到一個停止標志的樣子;或者在Facebook的應用里,神經網路自學習了你媽媽的臉;又或者是2012年吳恩達(Andrew Ng)教授在Google實現了神經網路學習到貓的樣子等等。
吳教授的突破在於,把這些神經網路從基礎上顯著地增大了。層數非常多,神經元也非常多,然後給系統輸入海量的數據,來訓練網路。在吳教授這里,數據是一千萬YouTube視頻中的圖像。吳教授為深度學習(deep learning)加入了「深度」(deep)。這里的「深度」就是說神經網路中眾多的層。
現在,經過深度學習訓練的圖像識別,在一些場景中甚至可以比人做得更好:從識別貓,到辨別血液中癌症的早期成分,到識別核磁共振成像中的腫瘤。Google的AlphaGo先是學會了如何下圍棋,然後與它自己下棋訓練。它訓練自己神經網路的方法,就是不斷地與自己下棋,反復地下,永不停歇。
深度學習,給人工智慧以璀璨的未來
深度學習使得機器學習能夠實現眾多的應用,並拓展了人工智慧的領域范圍。深度學習摧枯拉朽般地實現了各種任務,使得似乎所有的機器輔助功能都變為可能。無人駕駛汽車,預防性醫療保健,甚至是更好的電影推薦,都近在眼前,或者即將實現。
人工智慧就在現在,就在明天。有了深度學習,人工智慧甚至可以達到我們暢想的科幻小說一般。你的C-3PO我拿走了,你有你的終結者就好了。
『肆』 機器學習有哪些演算法
樸素貝葉斯分類器演算法是最受歡迎的學習方法之一,按照相似性分類,用流行的貝葉斯概率定理來建立機器學習模型,特別是用於疾病預測和文檔分類。 它是基於貝葉斯概率定理的單詞的內容的主觀分析的簡單分類。
什麼時候使用機器學習演算法 - 樸素貝葉斯分類器?
(1)如果您有一個中等或大的訓練數據集。
(2)如果實例具有幾個屬性。
(3)給定分類參數,描述實例的屬性應該是條件獨立的。
A.樸素貝葉斯分類器的應用
(1)這些機器學習演算法有助於在不確定性下作出決策,並幫助您改善溝通,因為他們提供了決策情況的可視化表示。
(2)決策樹機器學習演算法幫助數據科學家捕獲這樣的想法:如果採取了不同的決策,那麼情境或模型的操作性質將如何劇烈變化。
(3)決策樹演算法通過允許數據科學家遍歷前向和後向計算路徑來幫助做出最佳決策。
C.何時使用決策樹機器學習演算法
(1)決策樹對錯誤是魯棒的,並且如果訓練數據包含錯誤,則決策樹演算法將最適合於解決這樣的問題。
(2)決策樹最適合於實例由屬性值對表示的問題。
(3)如果訓練數據具有缺失值,則可以使用決策樹,因為它們可以通過查看其他列中的數據來很好地處理丟失的值。
(4)當目標函數具有離散輸出值時,決策樹是最適合的。
D.決策樹的優點
(1)決策樹是非常本能的,可以向任何人輕松解釋。來自非技術背景的人,也可以解釋從決策樹繪制的假設,因為他們是不言自明的。
(2)當使用決策樹機器學習演算法時,數據類型不是約束,因為它們可以處理分類和數值變數。
(3)決策樹機器學習演算法不需要對數據中的線性進行任何假設,因此可以在參數非線性相關的情況下使用。這些機器學習演算法不對分類器結構和空間分布做出任何假設。
(4)這些演算法在數據探索中是有用的。決策樹隱式執行特徵選擇,這在預測分析中非常重要。當決策樹適合於訓練數據集時,在其上分割決策樹的頂部的節點被認為是給定數據集內的重要變數,並且默認情況下完成特徵選擇。
(5)決策樹有助於節省數據准備時間,因為它們對缺失值和異常值不敏感。缺少值不會阻止您拆分構建決策樹的數據。離群值也不會影響決策樹,因為基於分裂范圍內的一些樣本而不是准確的絕對值發生數據分裂。
E.決策樹的缺點
(1)樹中決策的數量越多,任何預期結果的准確性越小。
(2)決策樹機器學習演算法的主要缺點是結果可能基於預期。當實時做出決策時,收益和產生的結果可能與預期或計劃不同。有機會,這可能導致不現實的決策樹導致錯誤的決策。任何不合理的期望可能導致決策樹分析中的重大錯誤和缺陷,因為並不總是可能計劃從決策可能產生的所有可能性。
(3)決策樹不適合連續變數,並導致不穩定性和分類高原。
(4)與其他決策模型相比,決策樹很容易使用,但是創建包含幾個分支的大決策樹是一個復雜和耗時的任務。
(5)決策樹機器學習演算法一次只考慮一個屬性,並且可能不是最適合於決策空間中的實際數據。
(6)具有多個分支的大尺寸決策樹是不可理解的,並且造成若干呈現困難。
F.決策樹機器學習演算法的應用
(1)決策樹是流行的機器學習演算法之一,它在財務中對期權定價有很大的用處。
(2)遙感是基於決策樹的模式識別的應用領域。
(3)銀行使用決策樹演算法按貸款申請人違約付款的概率對其進行分類。
(4)Gerber產品公司,一個流行的嬰兒產品公司,使用決策樹機器學習演算法來決定他們是否應繼續使用塑料PVC(聚氯乙烯)在他們的產品。
(5)Rush大學醫學中心開發了一個名為Guardian的工具,它使用決策樹機器學習演算法來識別有風險的患者和疾病趨勢。
Python語言中的數據科學庫實現決策樹機器學習演算法是 - SciPy和Sci-Kit學習。
R語言中的數據科學庫實現決策樹機器學習演算法是插入符號。
3.7 隨機森林機器學習演算法
讓我們繼續我們在決策樹中使用的同樣的例子,來解釋隨機森林機器學習演算法如何工作。提利昂是您的餐廳偏好的決策樹。然而,提利昂作為一個人並不總是准確地推廣你的餐廳偏好。要獲得更准確的餐廳推薦,你問一對夫婦的朋友,並決定訪問餐廳R,如果大多數人說你會喜歡它。而不是只是問Tyrion,你想問問Jon Snow,Sandor,Bronn和Bran誰投票決定你是否喜歡餐廳R或不。這意味著您已經構建了決策樹的合奏分類器 - 也稱為森林。
你不想讓所有的朋友給你相同的答案 - 所以你提供每個朋友略有不同的數據。你也不確定你的餐廳偏好,是在一個困境。你告訴提利昂你喜歡開頂屋頂餐廳,但也許,只是因為它是在夏天,當你訪問的餐廳,你可能已經喜歡它。在寒冷的冬天,你可能不是餐廳的粉絲。因此,所有的朋友不應該利用你喜歡打開的屋頂餐廳的數據點,以提出他們的建議您的餐廳偏好。
通過為您的朋友提供略微不同的餐廳偏好數據,您可以讓您的朋友在不同時間向您詢問不同的問題。在這種情況下,只是稍微改變你的餐廳偏好,你是注入隨機性在模型級別(不同於決策樹情況下的數據級別的隨機性)。您的朋友群現在形成了您的餐廳偏好的隨機森林。
隨機森林是一種機器學習演算法,它使用裝袋方法來創建一堆隨機數據子集的決策樹。模型在數據集的隨機樣本上進行多次訓練,以從隨機森林演算法中獲得良好的預測性能。在該整體學習方法中,將隨機森林中所有決策樹的輸出結合起來進行最終預測。隨機森林演算法的最終預測通過輪詢每個決策樹的結果或者僅僅通過使用在決策樹中出現最多次的預測來導出。
例如,在上面的例子 - 如果5個朋友決定你會喜歡餐廳R,但只有2個朋友決定你不會喜歡的餐廳,然後最後的預測是,你會喜歡餐廳R多數總是勝利。
A.為什麼使用隨機森林機器學習演算法?
(1)有很多好的開源,在Python和R中可用的演算法的自由實現。
(2)它在缺少數據時保持准確性,並且還能抵抗異常值。
(3)簡單的使用作為基本的隨機森林演算法可以實現只用幾行代碼。
(4)隨機森林機器學習演算法幫助數據科學家節省數據准備時間,因為它們不需要任何輸入准備,並且能夠處理數字,二進制和分類特徵,而無需縮放,變換或修改。
(5)隱式特徵選擇,因為它給出了什麼變數在分類中是重要的估計。
B.使用隨機森林機器學習演算法的優點
(1)與決策樹機器學習演算法不同,過擬合對隨機森林不是一個問題。沒有必要修剪隨機森林。
(2)這些演算法很快,但不是在所有情況下。隨機森林演算法當在具有100個變數的數據集的800MHz機器上運行時,並且50,000個案例在11分鍾內產生100個決策樹。
(3)隨機森林是用於各種分類和回歸任務的最有效和通用的機器學習演算法之一,因為它們對雜訊更加魯棒。
(4)很難建立一個壞的隨機森林。在隨機森林機器學習演算法的實現中,容易確定使用哪些參數,因為它們對用於運行演算法的參數不敏感。一個人可以輕松地建立一個體面的模型沒有太多的調整
(5)隨機森林機器學習演算法可以並行生長。
(6)此演算法在大型資料庫上高效運行。
(7)具有較高的分類精度。
C.使用隨機森林機器學習演算法的缺點
他們可能很容易使用,但從理論上分析它們是很困難的。
隨機森林中大量的決策樹可以減慢演算法進行實時預測。
如果數據由具有不同級別數量的分類變數組成,則演算法會偏好具有更多級別的那些屬性。 在這種情況下,可變重要性分數似乎不可靠。
當使用RandomForest演算法進行回歸任務時,它不會超出訓練數據中響應值的范圍。
D.隨機森林機器學習演算法的應用
(1)隨機森林演算法被銀行用來預測貸款申請人是否可能是高風險。
(2)它們用於汽車工業中以預測機械部件的故障或故障。
(3)這些演算法用於醫療保健行業以預測患者是否可能發展成慢性疾病。
(4)它們還可用於回歸任務,如預測社交媒體份額和績效分數的平均數。
(5)最近,該演算法也已經被用於預測語音識別軟體中的模式並對圖像和文本進行分類。
Python語言中的數據科學庫實現隨機森林機器學習演算法是Sci-Kit學習。
R語言的數據科學庫實現隨機森林機器學習演算法randomForest。
『伍』 機器學習應該看哪些書籍
1、人工智慧編程範例
以前,我一直是討厭推薦「For mmies」系列的書籍,因為它們都太過簡單直白。但是,由於這本書的作者都是經驗豐富的數據科學家,我決定破一次例。
即使是零基礎,傻瓜機器學習這本書也能讓讀者快速體驗到機器學習的魅力。盡管書中的例子是用 python 語言寫的,但是其實你並不需要了解 python 的語法。
在本書中,你將了解到機器學習的歷史以及機器學習與人工智慧的不同。作者為我們詳盡地講解了每一個知識點。
在讀本書之前,你只需要一些數學和邏輯方面的基本知識,而並不需要編程的經驗。如果你在讀這本書前從沒接觸過演算法,可能你會有點痛苦,不過仍然可以做一些互補的研究。
『陸』 大數據分析到底需要多少種工具
大數據分析到底需要多少種工具?
摘要
JMLR雜志上最近有一篇論文,作者比較了179種不同的分類學習方法(分類學習演算法)在121個數據集上的性能,發現Random Forest(隨機森林)和SVM(支持向量機)分類准確率最高,在大多數情況下超過其他方法。本文針對「大數據分析到底需要多少種工具?」這一問題展開討論,總結機器學習領域多年來積累的經驗規律,繼而導出大數據分析應該採取的策略。
1.分類方法大比武
大數據分析主要依靠機器學習和大規模計算。機器學習包括監督學習、非監督學習、強化學習等,而監督學習又包括分類學習、回歸學習、排序學習、匹配學習等(見圖1)。分類是最常見的機器學習應用問題,比如垃圾郵件過濾、人臉檢測、用戶畫像、文本情感分析、網頁歸類等,本質上都是分類問題。分類學習也是機器學習領域,研究最徹底、使用最廣泛的一個分支。
機器學習
圖1 機器學習分類體系
最近、Fernández-Delgado等人在JMLR(Journal of Machine Learning Research,機器學習頂級期刊)雜志發表了一篇有趣的論文。他們讓179種不同的分類學習方法(分類學習演算法)在UCI 121個數據集上進行了「大比武」(UCI是機器學習公用數據集,每個數據集的規模都不大)。結果發現Random Forest(隨機森林)和SVM(支持向量機)名列第一、第二名,但兩者差異不大。在84.3%的數據上、Random Forest壓倒了其它90%的方法。也就是說,在大多數情況下,只用Random Forest 或 SVM事情就搞定了。
2.幾點經驗總結
大數據分析到底需要多少種機器學習的方法呢?圍繞著這個問題,我們看一下機器學習領域多年得出的一些經驗規律。
大數據分析性能的好壞,也就是說機器學習預測的准確率,與使用的學習演算法、問題的性質、數據集的特性包括數據規模、數據特徵等都有關系。
一般地,Ensemble方法包括Random Forest和AdaBoost、SVM、Logistic Regression 分類准確率最高。
沒有一種方法可以「包打天下」。Random Forest、SVM等方法一般性能最好,但不是在什麼條件下性能都最好。
不同的方法,當數據規模小的時候,性能往往有較大差異,但當數據規模增大時,性能都會逐漸提升且差異逐漸減小。也就是說,在大數據條件下,什麼方法都能work的不錯。參見圖2中Blaco & Brill的實驗結果。
對於簡單問題,Random Forest、SVM等方法基本可行,但是對於復雜問題,比如語音識別、圖像識別,最近流行的深度學習方法往往效果更好。深度學習本質是復雜模型學習,是今後研究的重點。
在實際應用中,要提高分類的准確率,選擇特徵比選擇演算法更重要。好的特徵會帶來更好的分類結果,而好的特徵的提取需要對問題的深入理解。
大數據
圖2 不同機器學習方法在數據集增大時的學習曲線。
3.應採取的大數據分析策略
建立大數據分析平台時,選擇實現若干種有代表性的方法即可。當然,不僅要考慮預測的准確率,還有考慮學習效率、開發成本、模型可讀性等其他因素。大數據分析平台固然重要,同時需要有一批能夠深入理解應用問題,自如使用分析工具的工程師和分析人員。
只有善工利器,大數據分析才能真正發揮威力。
『柒』 什麼是機器學習,人工智慧,深度學習
人工智慧(AI)、機器學習(machinelearning)和深度學習(deeplearning)都用上了。這三者在AlphaGo擊敗李世乭的過程中都起了作用,但它們說的並不是一回事。
今天我們就用最簡單的方法——同心圓,可視化地展現出它們三者的關系和應用。
如下圖,人工智慧是最早出現的,也是最大、最外側的同心圓;其次是機器學習,稍晚一點;最內側,是深度學習,當今人工智慧大爆炸的核心驅動。
『捌』 機器學習學習路徑都需要看那些書
機器學習的學習應該看哪些書籍
1:個人覺得李航的《統計學習方法》還算可以,屬於基本的機器學習入門書籍。
2:具體可以結合andrew ng的機器學習視頻看--->可以去網易公開課找到,斯坦福大學機器學習
3:嘗試實現一些最基礎的演算法。最簡單的比如樸素貝葉斯分類器,我當年實現第一個機器學習演算法,現在想想還是很激動的。後面的像SVM,決策樹也可以試試。
4:一定要做一點應用,不然,感覺都是理論,一點感覺都不會有的。比如上面的樸素貝葉斯分類器就可以做一個垃圾郵件過濾系統。
5:還有一本書似乎是韓家煒的數據挖掘導論,沒讀過,但是網上推薦挺多的。
6:等你到了一定水平,就可以啃啃PRML了,這個太經典了,有點類似演算法中的演算法導論7:至於後來,好吧,我還在啃PRML。。。。讓其他人說吧。。
『玖』 我要用svm演算法過濾文本垃圾郵件,要掌握svm多少的知識,還有我一點不懂,該看什麼書好
svm演算法的問題當然要去matlabsky網站,裡面有關於SVM的專版,建議先學學matlab基礎再去看!
不知道你是本科還是研究生,這種classification的問題光看書是沒有用的一定要實際的編程才行