Ⅰ 特徵選擇的Filter過濾法
1.1 當數據預處理完成之後,接下來就是特徵工程部分,特徵工程包括了特徵的提取,特徵創造,特徵選擇。
特徵提取(feature extraction):從文字、圖像、聲音等其他非結構化數據只能怪提取新信息作為特徵,比如說從淘寶的商品名稱中提取產品類別,產品顏色,是否是網上產品等。
特徵創造(feature creation):把現有的特徵進行組合,或是相互計算得到新的特徵。比如說我們有一列特徵是速度,一列特徵距離,通過兩特徵相除,創造新特徵:通過距離所花的時間。
特徵選擇(feature selection):從所有的特徵中選擇出有意義的,對模型有幫助的特徵,避免將所有特徵都導入模型中去訓練。
下面只講特徵選擇,特徵選擇有四種方法:過濾法,嵌入法,包裝法,和降維演算法。
1.2 Filter過濾法
過濾法通常用作預處理的步驟,特徵選擇完全獨立於任何的機器學習演算法,它是根據各種統計檢驗中的分數以及相關性的各項指標來選擇特徵的。
1.3 VarianceThreshold
VarianceThreshold是通過特徵本身的方差來篩選特徵的類。比如一個特徵本身的方差很小,就表示樣本在這個特徵上基本沒有差異,可能特徵中的大多數值都一樣,甚至整個特徵的取值都相同,那這個特徵對於樣本區分沒有什麼作用,所以 無論接下來的特徵工程要做什麼,都要優先消除方差為0的特徵 。VarianceThreshold重要參數threshold,表示方差的閾值,表示舍棄所有方差小於threshold的特徵,不填默認為0,即刪除所有記錄都相同的特徵。
可以看見,已經刪除了方差為0的特徵,但是依然剩390多個特徵,明顯還需要進一步的特徵選擇,如果我們知道我們需要多少個特徵,方差也可以幫助我們將特徵選擇一步到位。比如說,我們希望留下一半的特徵,那可以設定一個讓特徵總數減半的方差閾值,只要找到特徵方差的中位數,再將這個中位數作為參數threshold的值輸入就好了
使用的方差閾值是特徵方差的中位數,因此屬於閾值比較大,過濾掉的特徵比較多的情況。我們可以觀察到,如果在過濾掉一半特徵之後,模型的精確度上升了。這說明被我們過濾掉的特徵在當前隨機模式(random_state = 0)下大部分是噪音。那我們就可以保留這個去掉了一半特徵的數據,來為之後的特徵選擇做准備。當然,如果過濾之後模型的效果反而變差了,我們就可以認為,被我們過濾掉的特徵中有很多都有有效特徵,那我們就放棄過濾,使用其他手段來進行特徵選擇。
1.4 方差過濾對模型的影響
最近鄰演算法KNN,單棵決策樹,支持向量機SVM,神經網路,回歸演算法,都需要遍歷特徵或升維來進行運算,所以它們本身的運算量就很大,需要的時間就很長,因此方差過濾這樣的特徵選擇對他們來說就尤為重要。但對於不需要遍歷特徵的演算法,比如隨機森林,它隨機選取特徵進行分枝,本身運算就非常快速,因此特徵選擇對它來說效果平平。這其實很容易理解,無論過濾法如何降低特徵的數量,隨機森林也只會選取固定數量的特徵來建模;而最近鄰演算法就不同了,特徵越少,距離計算的維度就越少,模型明顯會隨著特徵的減少變得輕量。因此,過濾法的主要對象是:需要遍歷特徵或升維的演算法,而過濾法的主要目的是:在維持演算法表現的前提下,幫助演算法降低計算成本。
1.5 過濾法對隨機森林無效,卻對樹模型有效?
從演算法原理上來說,傳統決策樹需要遍歷所有特徵,計算不純度後進行分枝,而隨機森林卻是隨機選擇特徵進行計算和分枝,因此隨機森林的運算更快,過濾法對隨機森林無用,對決策樹卻有用。在sklearn中,決策樹和隨機森林都是隨機選擇特徵進行分枝,但決策樹在建模過程中隨機抽取的特徵數目卻遠遠超過隨機森林當中每棵樹隨機抽取的特徵數目(比如說對於這個400維的數據,隨機森林每棵樹只會抽取10~20個特徵,而決策樹可能會抽取100~200個特徵),因此,過濾法對隨機森林無用,卻對決策樹有用也因此,在sklearn中,隨機森林中的每棵樹都比單獨的一棵決策樹簡單得多,高維數據下的隨機森林的計算比決策樹快很多。
Ⅱ 風險的特徵不包括
固定性、絕對性、主觀性這三個特性不屬於風險的特徵。風險的基本特徵包括損失性、不確定性、客觀性以及普遍性。從廣義上來看,如果一件事情的發生具有兩種或者兩種以上的結果,那麼就可以認為這件事情存在一定的風險。在保理論和實務的課程中,風險只指的是面對損失時具有對於是否發生、何時發生和所導致結果的不確定性。
1、純粹風險:表示事件只有弊而無利,只會造成損失而沒有獲得利益的可能。比如房屋的主人可能要面對的房屋起火的風險;汽車主人可能要面對的汽車碰撞風險;
2、投機風險:相比起純粹風險,投機風險表示有獲利的可能。因此投機風險的結果可能是只有損失,沒有損失或是獲得利潤。比如買賣股票,就存在賺錢,虧本和不賺不虧三種可能,在財務上的投資所面對的風險都屬於投機風險。
Ⅲ [ML] 特徵提取3種基本方法
嵌入(embed) :學習 演算法 中本來就包含有特徵選擇的過程,例如決策樹一類的分類器,它們在決定分枝點時就會選擇最有效的特徵來對數據進行劃分。但這種方法是在局部空間中進行優選,效果相對有限。
封裝(Wrapper): 特徵選擇過程與訓練過程整合在一起,以模型的預測能力作為衡量特徵子集的選擇標准,例如分類精度,有時也可加入復雜度懲罰因子。多元線性回歸中的前向搜索和後向搜索可以說是封裝方法的一種簡單實現。不同的學習演算法要搭配不同的封裝方法,如果是線性分類器,可以採用之前博文談到的 LASSO方法 (glmnet包)。如果是非線性分類器,如樹模型則可以採用隨機森林封裝(RRF包)。封裝法可以選擇出高質量的子集,但速度會比較慢。
過濾(Filter): 特徵選擇過程獨立於訓練過程,以分析特徵子集內部特點來預先篩選,與學習器的選擇無關。過濾器的評價函數通常包括了相關性、距離、信息增益等。在數據預處理過程中刪除那些取值為常數的特徵就是過濾方法的一種。過濾法速度快但有可能刪除有用的特徵。
在實務中進行特徵選擇可以先藉由專家知識來初步篩選,再用過濾法快速篩選無關變數,最後採用封裝法得到最優子集和模型結果。
Ⅳ 數據分析常用的分析方法有哪些
1. 描述型分析
這是最常見的分析方法。在業務中,這種方法向數據分析師提供了重要指標和業務的衡量方法。
例如,每月的營收和損失賬單。數據分析師可以通過這些賬單,獲取大量的客戶數據。了解客戶的地理信息,就是“描述型分析”方法之一。利用可視化工具,能夠有效的增強描述型分析所提供的信息。
2. 診斷型分析
描述性數據分析的下一步就是診斷型數據分析。通過評估描述型數據,診斷分析工具能夠讓數據分析師深入地分析數據,鑽取到數據的核心。
良好設計的BI dashboard能夠整合:按照時間序列進行數據讀入、特徵過濾和鑽取數據等功能,以便更好的分析數據。
3. 預測型分析
預測型分析主要用於進行預測。事件未來發生的可能性、預測一個可量化的值,或者是預估事情發生的時間點,這些都可以通過預測模型來完成。
預測模型通常會使用各種可變數據來實現預測。數據成員的多樣化與預測結果密切相關。在充滿不確定性的環境下,預測能夠幫助做出更好的決定。預測模型也是很多領域正在使用的重要方法。
4. 指令型分析
數據價值和復雜度分析的下一步就是指令型分析。指令模型基於對“發生了什麼”、“為什麼會發生”和“可能發生什麼”的分析,來幫助用戶決定應該採取什麼措施。通常情況下,指令型分析不是單獨使用的方法,而是前面的所有方法都完成之後,最後需要完成的分析方法。
Ⅳ 方差對於特徵選擇上的作用
特徵選擇的意義
在對數據進行異常值、缺失值、數據轉換等處理後,我們需要從當前數據集中選出有意義的特徵,然後輸入到演算法模型中進行訓練。
對數據集進行特徵選擇主要基於以下幾方面的考慮:
1.冗餘的特徵會影響阻礙模型找尋數據潛在的規律,若冗餘的特徵過多,還會造成維度容災,佔用大量的時間空間,使演算法運行效率大打折扣。
2.去除不相關的特徵會降低學習任務的難度,保留關鍵的特徵更能直觀的看出數據潛在的規律。
那麼,該如何進行特徵選擇呢?通常,要從兩方面考慮來選擇特徵:
1.特徵是否具有發散性:
如果一個特徵不發散,例如方差接近於0,也就是說樣本在這個特徵上基本上沒有差異,這個特徵對於樣本的區分並沒有什麼用。
2.特徵與目標的相關性:
如果一個特徵不發散,例如方差接近於0,也就是說樣本在這個特徵上基本上沒有差異,這個特徵對於樣本的區分並沒有什麼用。
根據特徵選擇的標准,又能分為filter、wrapper、embedded三種方法。
Filter方法
過濾法的主要思想是查看特徵的發散性和特徵與目標的相關性,通過設定閾值的方法,過濾發散性低、相關性不強的特徵。
過濾法先對數據集進行特徵選擇,然後再訓練學習器,特徵選擇過程與後續學習器無關,即先選好特徵,再用過濾後的特徵來訓練模型。
具體來說,有:
1.方差法
使用方差法,要先計算各個特徵的方差,然後根據閾值,選擇方差大於閾值的特徵。若特徵的方差小於閾值,則代表該特徵的發散性太弱。
2.Pearson系數
Pearson相關系數是用協方差除以兩個變數的標准差得到的。皮爾遜系數只能衡量線性相關性,先要計算各個特徵對目標值的相關系數以及相關系數的P值,P值區間在[-1,1],p值越大,則與目標值越正/負相關,當p值為0時,則代表與目標值不相關。計算公式如下:
3.卡方檢驗
卡方檢驗只能用於二分類,經典的卡方檢驗是檢驗定性自變數對定性因變數的相關性。假設自變數有N種取值,因變數有M種取值,考慮自變數等於i且因變數等於j的樣本頻數的觀察值與期望的差距,從而構建統計量。計算公式如下:
由於此篇博文是從整體來談特徵選擇,如對卡方檢驗不甚理解,請參考【筆記】卡方檢驗概述
4.互信息法
互信息(Mutual Information)是資訊理論里一種有用的信息度量,它可以看成是一個隨機變數中包含的關於另一個隨機變數的信息量,或者說是一個隨機變數由於已知另一個隨機變數而減少的不肯定性。
互信息系數能夠很好地度量各種相關性,互信息法的計算公式如下:
wrapper法
過濾法在選擇特徵時不考慮特徵對學習器的效果,包裹式選擇就很靈性了。包裹式通常根據預測效果評分來為學習器「量身定製」特徵子集,相較於過濾法,能使學習器的性能更佳,缺點即是計算開銷往往也更大。
比如LVW(Las Vegas Wrapper)特徵選擇方法,其思想是使用隨機策略來進行子集搜索,並以最終分類器的誤差為特徵子集的評價標准,演算法描述如下:
通過演算法流程圖可知,從特徵集中隨機抽取特徵子集,如果在特徵子集下分類器的誤差降低或誤差無變化,則更新特徵集為特徵子集。
但也可以看出,由於每次循環都要計算分類器誤差,計算開銷很大,若特徵眾多,設置的循環次數較大,可能在很長的時間都給不出解。
Embedded法
嵌入式特徵選擇方法也很靈性…嵌入式的特徵選擇方法將特徵選擇和學習器的訓練過程融為一體,即學習器自動的進行了特徵選擇。
比如決策樹的信息增益、信息增益比、基尼指數,求解最優解時的L1、L2正則化等思想,都能選取對學習器有價值的特徵,過濾價值不大的特徵。
參考
《機器學習》 —周志華
jacksu在——–特徵選擇
Joey-SH ———卡方檢驗概述
Ⅵ 特徵選擇的相關性過濾
我們希望選出與標簽有關且有意義的特徵,因為這樣的特徵攜帶更多的信息,如果特徵與標簽無關,只會浪費計算內存,可能還會給模型帶來雜訊,在sklearn中有三種常用的方法來評判特徵與標簽之間的相關性:卡方,F檢驗,互信息
1.1卡方過濾
卡方過濾是專門針對離散型標簽(即分類問題)的相關性過濾,卡方檢驗類feature_selection.chi2計算每個非負特徵與標簽之間的卡方統計量,並依照卡方統計量由高到低為特徵排名,再結合feature_selection.SelectKBest這個可以輸入「評分標准」來選出前K個分數最高的特徵的類,我們可以藉此除去最可能獨立於標簽,與我們分類目的無關的特徵。
另外,如果卡方檢查中檢測到某個特徵中所有的值都相同,會提示我們先使用方差過濾。
1.2 K參數的選取
實際中的數據量會很大,模型很復雜的時候也許不允許我們先跑一遍模型看看效果,而是希望最開始就能選擇一個最優的超參數K,可以使用學習曲線。
通過這條曲線,我們可以觀察到,隨著K值的不斷增加,模型的表現不斷上升,這說明,K越大越好,數據中所有的特徵都是與標簽相關的。但是運行這條曲線的時間同樣也是非常地長,接下來說一種更好的選擇k的方法:看p值選擇k
卡方檢驗的本質是推測兩組數據之間的差異,其檢驗的原假設是「兩組數據是相互獨立的」。卡方檢驗返回卡方值和P值兩個統計量,其中卡方值很難界定有效的范圍,而p值,我們一般使用0.01或0.05作為顯著性水平,即p值判斷邊界,具體如表格所示
從特徵工程的角度,我們希望獲取卡方值很大,p值小於0.05的特徵,即和標簽是相關聯的特徵,而調用SelectKBest之前,我們可以直接從chi2實例化後的模型中獲得各個特徵所對應的卡方值和p值。
1.3 F檢驗
F檢驗,又稱ANOVA,方差齊性檢驗,是用來捕捉每個特徵與標簽之間的線性關系的過濾方法,它即可以做回歸也可以做分類,因此包含feature_selection.f_classif(F檢驗分類)和feature_selection.f_regression(F檢驗回歸)兩個類,其中F檢驗分類用於標簽是離散型變數的數據,而F檢驗回歸則用於標簽是連續性變數的數據。
和卡方檢驗一樣,這兩個類都需要和SelectKBest連用,並且我們也可以直接通過輸出的統計量來判斷我們到底要設置多大的K值。F檢驗在數據服從正態分布是效果會非常穩定,因此如果使用F檢驗過濾,我們會先將數據轉化成正態分布的方式。
F檢驗的本質是尋找兩組數據之間的線性關系,其原假設是「數據不存在顯著的線性關系」,它返回F值和P值兩個統計量,和卡方過濾一樣,我們希望選取P值小於0.05或是0.01的特徵,這些特徵與標簽是顯著線性相關的,而P值大於0.05或是0.01的特徵被 我們認為是與標簽沒有顯著線性關系的特徵,應該被刪除,以F檢驗的分類為例,在數字數據集上進行特徵選擇。
k=300,跟原特徵數一樣,說明沒有任何的特徵的p值大於0.01,所有的特徵都是與標簽相關的,因此不需要相關性過濾。
1.4 互信息法
互信息法是用來捕捉每個特徵與標簽之間的任意關系(線性關系和非線性關系)的過濾方法,跟F檢驗一樣,可以做回歸也可以做分類,並且包含兩個類feature_selection.mutual_info_classif和feature_selection.mutual_info_regression(互信息回歸),這兩個類的用法和參數都和F檢驗一模一樣,不過互信息法比F檢驗更加強大,F檢驗只能夠找出線性關系,而互信息法可以找出任意關系。
1.5 過濾法總結
通常來說,會先使用方差過濾,然後使用互信息法來捕捉相關性,不過了解各種各樣的過濾方式也是必要的。所有信息被總結在下表:
Ⅶ 特徵選擇與特徵子集(二)
順承 上節 ,本節,我們來介紹三類特徵選擇。
作為數據維數約簡的重要手段之一,特徵選擇會從最初的特徵集合中按照一定的規則刪除冗餘以及不重要的特徵,從而獲得一個最優特徵集合的過程。
原始樣本有 個特徵,那麼如果使用枚舉法尋找最優特徵子集的話,其復雜度為 ,因為由 個特徵構成子集數 為個。
所以,我們需要一定的策略來尋找特徵子集,特徵子集的流程如下:
流程圖如下:
根據於學習演算法的關系,特徵選擇可劃分為三類方式:過濾式(Filter)方式,封裝式(Wrapper)方法和嵌入式(Embedded)方法。
接下來,我們會介紹這三種特徵選擇方法。
過濾式特徵選擇方法的特點是其獨立於學習演算法,直接由原始的特徵集合求得。它數據集進行特張選擇,然後再訓練學習器,這兩個過程是獨立的。我們會先對原始特徵集 進行特徵選擇,排除冗餘無關特徵,得到一個過濾後的特徵子集 ,我們會用 來訓練下游的模型或者分類器。
過濾式特徵選擇演算法會通過數據的本質屬性對所有特徵進行相應的評分,在評價過程中無需分類器完成,在對給出所有特徵賦予相應的評分後,選擇評分高的特徵用於之後的學習演算法中。
過濾式特徵選擇包含單變數過濾式特徵選擇以及多變數過濾式特徵選擇兩種。
單變數過濾式特徵選擇演算法使用某種評價標准作為度量方式來確定數據集中特徵對類別的區分能力。
以學生成績為例,假設我們預測一個學生高考成績,那麼可以以某種評價標准來度量,例如說他成績的波動值,越平穩,他就越不容易失誤,可以預估他高考的表現。
常見的單變數過濾式特徵選擇演算法有互信息以及信息增益。
多變數過濾式特徵選擇演算法正是通過考慮特徵之間的交互作用來確定特徵的重要性。
就以我們生活中的例子為例吧,可能不太准確。我們都聽過這樣的諺語:「螞蟻搬家蛇過道,明日必有大雨到」。這些特徵通過組合來確定特徵重要性或者樣本標簽,不能只考慮單一的特徵。
常見的多變數過濾式特徵選擇演算法有Relief,基於相關性的特徵選擇演算法CBFS以及馬爾可夫模型等。
過濾式特徵選擇演算法的因為其過程簡單快捷,很容易用於高維數據的維數約簡中。特徵選擇過程中不依賴任何模型,依次其特徵選擇結果可以用到各種分類演算法中。
反過來呢,正是因為其與分類演算法獨立,缺乏了與模型的交互性,在後期應用到分類演算法中會由劣勢。
這是必然的,事物都是具有雙面性的。因為過濾式特徵選擇演算法獨立於模型,因而簡單高效,缺少與模型也使它在落實到分類演算法時會有不足之處。
封裝式方法最大特點是其與學習演算法有關,利用學習演算法的性能來評價特徵子集的優劣。在進行特徵選擇過程中,需要一個分類器,根據分類器性能去衡量特徵子集,可以使用的分類器有決策樹,近鄰分類器,貝葉斯分類器以及支持向量機等等。
就以最近鄰分類器吧,它的流程比較簡單:
先將數據集劃分為訓練集和測試集,在測試集中遍歷樣本,尋找每一個樣本在訓練集中最近的 個樣本,選擇個樣本中出現次數最多的標簽作為該測試集樣本的標簽。
可以使用的距離度量方式有很多,詳細可見往期博客。
也就是說,封裝式特徵選擇演算法會將模型建立與特徵子集搜索的過程結合起來,用模型指導特徵子集的搜索過程。
它與模型相結合的方式,結果會更精確,但是問題也很明顯,容易過擬合。也就是說模型為了盡力擬合所有的訓練樣本,反而學習到一些不必要學習的知識,因此不能准確反映輸入輸出的真實函數關系。而且,封裝式特徵選擇演算法時間消耗多,當學習演算法改變時需要重新進行特徵選擇,而每次對特徵子集的衡量都需要有訓練和驗證的過程,計算較為復雜,因此不適用於大規模數據集。
嵌入式嵌入式特徵選擇演算法是特徵選擇過程嵌入到學習演算法的模型訓練中通過優化一個目標函數來實現特徵選擇。常見的嵌入式嵌入式特徵選擇演算法有決策樹演算法和基於支持向量機的演算法等。
與過濾式,封裝式特徵選擇演算法不同的是,過濾式和封裝式演算法的特徵選擇過程與學習器訓練過程有明顯的區別,而嵌入式特徵選擇是將特徵選擇過程與學習器訓練過程融為一體,兩者在同一個優化過程中完成,即在學習器訓練過程中自動地進行了特徵選擇。相對於封裝式方法,嵌入式特徵選擇方法不用於將數據集分為訓練集和驗證集兩部分,避免了為了評估每一個特徵子集對學習機所進行的重復訓練,可以快速地得到最佳特徵子集,是一種高效的特徵選擇方法。但是該類方法較大程度上依賴於參數調整,因此其性能對參數非常敏感,而且如何構造目標函數也是一個研究難點。
我們介紹三種特徵選擇方法,過濾式演算法簡單高效,但是缺失與模型的交互性;封裝式與模型相結合,結果精確,但是易過擬合;嵌入式有著兩者的優點,但是構造起來比較麻煩。各有優劣,之後我們的重點會放在過濾式特徵選擇演算法上。
python的sklearn包提供了相應特徵選擇演算法的方法,詳細的信息可以查閱相關資料。
本文參考了:
Ⅷ 穩健,虛偽,直爽,朴實,多疑,輕浮,持重,哪個不屬於性格特徵
氣質類型是指表現為心理特徵的神經系統基本特徵的典型結合。目前,心理科學尚未能編擬出構成氣質類型全部特徵的完整方案。但是,膽汁質、多血質、粘液質、抑鬱質這四種氣質類型的劃分是當前人們普遍能夠接受的觀點。
心理學上認為具有膽汁質型氣質的人精力旺盛,熱情直率,意志堅強;脾氣躁,不穩重,好挑釁;勇敢,樂於助人;思維敏捷,但准確性差。他們心理活動的明顯特點是興奮性高,不均衡、帶有迅速而突發的色彩。具有多血質型氣質的人的行動有很高的反應性,他們容易適應新環境,結交新朋友,具有高度可塑性。給人以活潑熱情,充滿朝氣,善於合作的印象。但注意力容易轉移,興趣容易變換,很難適應要求耐心細致的平凡而持久的工作。屬於粘液質的人緘默而沉靜,由於神經過程平靜而靈活性低,反應比較緩慢。這種人常常嚴格地恪守既定的生活秩序和工作制度,注意穩定且難轉移。給人的外表感覺為態度持重,沉著穩健,不愛作空泛的清談。這種氣質類型的不足之處是有些固執冷淡,不夠靈活,因而顯得因循守舊,不易合作。那些要求持久、有條理、冷靜的工作,對於粘液質的人最為合適。而具有抑鬱質型氣質的人感受性高而耐受性低,不隨意的反應性低;嚴重內傾;情緒興奮性高而體驗深,反應速度慢;具有刻板性,不靈活。性情脆弱、情感發生緩慢而持久,動作遲鈍、柔弱易倦。 具有這種類型特徵的人在情緒方面表現為情感不易老化,比較平靜,不易動情。情感脆弱、易神經過敏,容易變得孤僻。在行為方面表現為動作遲緩。膽小、不喜歡拋頭露面,反應遲鈍。
有研究表明氣質在一定程度上決定一個學生學習的途徑、方式、方法,賦予他智利、活動以某種「風格」、「特色」,但不決定一個學生知識、技能、智利的水平。因此在學習上,不論哪種氣質類型的學生,在同樣的學習任務下,只要肯下功夫都能取得好成績。由此觀之, 老師的任務不在於怎樣提高學生的智力,讓他們在學習上取得好成績,而在於通過對學生學習活動的方式,方法的指導,提高其學習效率和質量。
氣質無好壞之分,任何一種氣質都有它的優缺點,就像任何事物都有它的正反面一樣。作為一名老師應當了解不同學生的氣質特徵和氣質類型,做到因勢利導,提高教育效果,還要促使學生揚長避短,培養學生良好的個性品質和氣質特徵。
氣質類型偏於多血質的這類學生有粗心大意,虎頭蛇尾,興趣多移的弱點,老師應該注意要求他們在學習中認真細致,刻苦努力,在激起他們多種興趣的同時,要培養中心興趣;在具體活動中,要求他們增強組織紀律性,培養其朝氣蓬勃,滿腔熱情,善於思維等個性品質。對於他們的缺點錯誤,批評時要有一定的強度,但又要耐心細致,尤其要做好轉化後的鞏固工作,防止反復。
氣質類型偏於膽汁質的這類學生為人熱情,豪放,爽朗,勇敢,進取,主動,但他們性格中也有粗暴、任性、高傲,不能很好的控制自己的情緒的弱點。對於此類學生應該要求他們要善於控制自己,能沉著地、深思熟慮地回答問題,發表意見,活動中保持鎮靜而從容不迫。要注意培養他們扎實的工作作風,達觀的待人態度。對他們的教育不可急躁粗暴,而應慢言細語,實實在在、乾脆利落地講清道理,努力抑制他們的激動狀態。
氣質偏於粘液質的這類學生一般班裡默默無聞,容易被人忽視。但他們大多個性沉穩,安靜勤勉,且不防礙別人。對於這類學生老師應著重培養他們高度的積極性,靈活性等品質,防止墨守成規,因循守舊,執拗等不良品質,杜絕不必要的冷漠和萎靡不振。
氣質偏於抑鬱質的這類學生,平時給人以呆板而羞澀的印象,這類學生最易出現傷感、沮喪、憂郁、孤僻等行為現象。但在友愛的集體和教師的關懷下,又能充分表現出細致、委婉、堅定、富於同情心等優良品質。對這類學生,老師應(同時也應該要求班幹部)給予更多的關懷和具體的幫助。要著重發展他們的機智、認真細致、有自尊心和自信心的優良個性品質,防止怯懦、多疑、孤僻等消極心理的產生。要引導他們多參加集體活動,在評價過程中給予稱贊、嘉許、獎勵等,批評時「點到為止」。創造條件,安排他們從事有一定困難,需要與他人交往和配合的工作,以鼓勵、鍛煉他們的勇氣。
老師的精力畢竟有限,對於每個學生都不可能照顧得面面俱到,而且任何一類氣質的消極方面均有形成不良個性的可能,即便學生在老師的引導下改正過了,但也不能杜絕它以後不會反復。事物的本源還在事物的本身,內因總比外因重要,因此老師在幫助學生克服氣質的消極方面的同時,還應給予學生有關氣質方面的基本理論和知識,並幫助他們客觀地和認識自己氣質特徵中的長處和短處。並教會他們有意識地控制自己氣質上的消極方面,發展積極方面。根據氣質的「可塑性」特徵,通過教育的培養和學生的自我調適,是能夠使學生形成良好的氣質特性的。
另外老師在根據學生的不同氣質類型,教導和引導學生的同時,老師也應該認清自己的氣質類型,及時改正自己的品質的不足之處。
比如,我在教孩子鋼琴的時候,有一個學生就是性格很開朗,家庭富裕,但實際上缺少鼓勵與關愛的孩子,於是我在教學過程中就一直鼓勵他,鼓勵她彈的好,再來一次。如果能把這個問題解決了,那就非常完美的等等。或者告訴她,這首曲子彈的非常好,我們再練一遍,請母親過來看一遍好嗎。她就非常力的學習,為了得到母親的表揚。
另外,還有一個小男生,非常的調皮,家庭氛圍也不錯,如果你對他和顏悅色的話,他就特調皮,所以,我在教學過程中就非常嚴厲,也不開玩笑。於是小孩子就比較怕我,學習很認真。課後我總會當著她母親的面表揚他學習認真,希望繼續努力。孩子非常聽母親的話。 根據學生的個性差異,進行思想教育工作,使以往的(控制型)變為(疏導型)的教育方法,這個問題是每個班主任和學生管理人員值得探討的問題。 心理學認為,氣質是人的典型的穩定的心理特點。氣質影響一個人的行為,制約著心理反應的強度和靈活性。它的表現往往不以實踐活動的目的、內容及實際者的動機為轉移。因而它使每個人具有顯著的獨特的個人色彩。著名生理學家巴甫洛夫提出四種基本的高級精神活動類型:興奮型、活潑型、安靜型、弱型。這分別相當於膽汁質、多血質、粘液質、抑鬱質。在日常生活、學習和工作中,我們也不難找到這四種氣質類型的代表,因而它具有相當的實用價值。 人的氣質類型雖然無所謂好壞之分,但卻都有其長短之別。而且在某些場合和條件下,能成為起積極作用的東西,在另外一些場合卻能產生消極作用。 所以我們不能不注意到它對人的實踐活動的影響。 在學生中,同樣的教育內容或方法,對不同氣質的學生就可能產生不同的效果。如:對膽汁質和多血質的學生,採取嚴厲的批評方法, 一般說來容易起到促進作用。而對抑鬱質的學生來說, 卻可能產生不良的後果。因此,班主任要善於了解每一個學生的氣質特點, 正確對待人的氣質, 注意發揮每個學生氣質的積極作用,避免其消極作用,這樣有助於學生的內容和方法,是做學生思想工作不可忽視的問題。 興奮型(膽汁質)的學生行為方式特點:態度直率、熱情主動,精力旺盛,但情緒容易興奮沖動,脾氣多暴躁,行為易改變,缺乏耐性。對這種氣質的學生的教育要以慈愛情理去感化和陶冶,不宜在人多的場合批評他們。當他們在激動、發脾氣時,應該避其鋒芒,設法使其冷靜、穩定情緒, 然後採用商討式, 消除防衛心理,把批評信息傳遞給被教育者,引導他們認識自己的錯誤和缺點,同時注意 發展他們身上的「 閃光點「 ,給予鼓勵和信任,使他們認識到控制感情的必要性和控制感情的科學方法。這樣,他們可以成為積極熱情、生氣勃勃的人。 多血汁(活潑型)的學生行為方式特點是:活潑好動,精力充沛,反應迅速,善於交際,易適應環境。但興趣和注意力易轉移,具有較大的可塑性和外傾性。對這種氣質的學生要注意培養他們的耐力和韌性。 平時要嚴格要求,防止化。這類學生接受道理快,表態快,但也忘得快病易重犯。對個別沾染不良習氣的學生,應嚴厲批評,並說明造成的不良後果。對他們教育的好,可能使其發展為親切熱情,適應能力強的人;相反則發展為輕浮散漫,精力分散,行動草率的人。對這種人的批評一般可採用震動式批評方式,語調較為激烈,態度要嚴肅。對有些自我防衛心理強烈、不肯承認自己的過錯,常常事後否認或搪塞掩飾或嫁於別人,應當採取當時、當場、當事批評的方式。 安靜型(粘液質)的學生行為方式特點是:安靜穩重、沉著冷靜、善於耐、 情緒不易外露, 但沉默寡言、反應較慢、不夠靈活,內傾明顯。對這類學生,在學習、工作和生活中,不要逼他們表態,多給他們一些思考機會 。但也要防止出現懶惰和冷淡的感情,注重培養他們敏捷、勤奮和進去的精神。 引導他們與同學多交往 ,消除心理障礙。批評這種氣質的學生應採取啟發式的批評方式,多用暗示、提醒或啟示, 藉助他人、他事的事實,運用對比的方式烘托批評的內容, 使被批評者感到客觀上的某種壓力, 促使認識自己的缺點錯誤。