99偷拍视频精品区一区二,口述久久久久久久久久久久,国产精品夫妇激情啪发布,成人永久免费网站在线观看,国产精品高清免费在线,青青草在线观看视频观看,久久久久久国产一区,天天婷婷久久18禁,日韩动漫av在线播放直播

高斯分布函數python的簡單介紹

怎么用python表示出二維高斯分布函數,mu表示均值,sigma表示協方差矩陣,x表示數據點

clear?

雨花網站制作公司哪家好,找創新互聯!從網頁設計、網站建設、微信開發、APP開發、成都響應式網站建設等網站項目制作,到程序開發,運營維護。創新互聯2013年至今到現在10年的時間,我們擁有了豐富的建站經驗和運維經驗,來保證我們的工作的順利進行。專注于網站建設就選創新互聯。

close?all

%%%%%%%%%%%%%%%%%%%%%%%%%生成實驗數據集

rand('state',0)

sigma_matrix1=eye(2);

sigma_matrix2=50*eye(2);

u1=[0,0];

u2=[30,30];

m1=100;

m2=300;%樣本數

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%sm1數據集

Y1=multivrandn(u1,m1,sigma_matrix1);

Y2=multivrandn(u2,m2,sigma_matrix2);

scatter(Y1(:,1),Y1(:,2),'bo')

hold?on

scatter(Y2(:,1),Y2(:,2),'r*')

title('SM1數據集')

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%sm2數據集

u11=[0,0];

u22=[5,5];

u33=[10,10];

u44=[15,15];

m=600;

sigma_matrix3=2*eye(2);

Y11=multivrandn(u11,m,sigma_matrix3);

Y22=multivrandn(u22,m,sigma_matrix3);

Y33=multivrandn(u33,m,sigma_matrix3);

Y44=multivrandn(u44,m,sigma_matrix3);

figure(2)

scatter(Y11(:,1),Y11(:,2),'bo')

hold?on

scatter(Y22(:,1),Y22(:,2),'r*')

scatter(Y33(:,1),Y33(:,2),'go')

scatter(Y44(:,1),Y44(:,2),'c*')

title('SM2數據集')

end

function?Y?=?multivrandn(u,m,sigma_matrix)

%%生成指定均值和協方差矩陣的高斯數據

n=length(u);

c?=?chol(sigma_matrix);

X=randn(m,n);

Y=X*c+ones(m,1)*u;

end

統計學入門級:常見概率分布+python繪制分布圖

如果隨機變量X的所有取值都可以逐個列舉出來,則稱X為離散型隨機變量。相應的概率分布有二項分布,泊松分布。

如果隨機變量X的所有取值無法逐個列舉出來,而是取數軸上某一區間內的任一點,則稱X為連續型隨機變量。相應的概率分布有正態分布,均勻分布,指數分布,伽馬分布,偏態分布,卡方分布,beta分布等。(真多分布,好恐怖~~)

在離散型隨機變量X的一切可能值中,各可能值與其對應概率的乘積之和稱為該隨機變量X的期望值,記作E(X) 。比如有隨機變量,取值依次為:2,2,2,4,5。求其平均值:(2+2+2+4+5)/5 = 3。

期望值也就是該隨機變量總體的均值。 推導過程如下:

= (2+2+2+4+5)/5

= 1/5 2 3 + 4/5 + 5/5

= 3/5 2 + 1/5 4 + 1/5 5

= 0.6 2 + 0.2 4 + 0.2 5

= 60% 2 + 20% 4 + 20%*5

= 1.2 + 0.8 + 1

= 3

倒數第三步可以解釋為值為2的數字出現的概率為60%,4的概率為20%,5的概率為20%。 所以E(X) = 60% 2 + 20% 4 + 20%*5 = μ = 3。

0-1分布(兩點分布),它的隨機變量的取值為1或0。即離散型隨機變量X的概率分布為:P{X=0} = 1-p, P{X=1} = p,即:

則稱隨機變量X服從參數為p的0-1分布,記作X~B(1,p)。

在生活中有很多例子服從兩點分布,比如投資是否中標,新生嬰兒是男孩還是女孩,檢查產品是否合格等等。

大家非常熟悉的拋硬幣試驗對應的分布就是二項分布。拋硬幣試驗要么出現正面,要么就是反面,只包含這兩個結果。出現正面的次數是一個隨機變量,這種隨機變量所服從的概率分布通常稱為 二項分布 。

像拋硬幣這類試驗所具有的共同性質總結如下:(以拋硬幣為例)

通常稱具有上述特征的n次重復獨立試驗為n重伯努利試驗。簡稱伯努利試驗或伯努利試驗概型。特別地,當試驗次數為1時,二項分布服從0-1分布(兩點分布)。

舉個栗子:拋3次均勻的硬幣,求結果出現有2個正面的概率 。

已知p = 0.5 (出現正面的概率) ,n = 3 ,k = 2

所以拋3次均勻的硬幣,求結果出現有2個正面的概率為3/8。

二項分布的期望值和方差 分別為:

泊松分布是用來描述在一 指定時間范圍內或在指定的面積或體積之內某一事件出現的次數的分布 。生活中服從泊松分布的例子比如有每天房產中介接待的客戶數,某微博每月出現服務器癱瘓的次數等等。 泊松分布的公式為 :

其中 λ 為給定的時間間隔內事件的平均數,λ = np。e為一個數學常數,一個無限不循環小數,其值約為2.71828。

泊松分布的期望值和方差 分別為:

使用Python繪制泊松分布的概率分布圖:

因為連續型隨機變量可以取某一區間或整個實數軸上的任意一個值,所以通常用一個函數f(x)來表示連續型隨機變量,而f(x)就稱為 概率密度函數 。

概率密度函數f(x)具有如下性質 :

需要注意的是,f(x)不是一個概率,即f(x) ≠ P(X = x) 。在連續分布的情況下,隨機變量X在a與b之間的概率可以寫成:

正態分布(或高斯分布)是連續型隨機變量的最重要也是最常見的分布,比如學生的考試成績就呈現出正態分布的特征,大部分成績集中在某個范圍(比如60-80分),很小一部分往兩端傾斜(比如50分以下和90多分以上)。還有人的身高等等。

正態分布的定義 :

如果隨機變量X的概率密度為( -∞x+∞):

則稱X服從正態分布,記作X~N(μ,σ2)。其中-∞μ+∞,σ0, μ為隨機變量X的均值,σ為隨機變量X的標準差。 正態分布的分布函數

正態分布的圖形特點 :

使用Python繪制正態分布的概率分布圖:

正態分布有一個3σ準則,即數值分布在(μ-σ,μ+σ)中的概率為0.6827,分布在(μ-2σ,μ+2σ)中的概率為0.9545,分布在(μ-3σ,μ+3σ)中的概率為0.9973,也就是說大部分數值是分布在(μ-3σ,μ+3σ)區間內,超出這個范圍的可能性很小很小,僅占不到0.3%,屬于極個別的小概率事件,所以3σ準則可以用來檢測異常值。

當μ=0,σ=1時,有

此時的正態分布N(0,1) 稱為標準正態分布。因為μ,σ都是確定的取值,所以其對應的概率密度曲線是一條 形態固定 的曲線。

對標準正態分布,通常用φ(x)表示概率密度函數,用Φ(x)表示分布函數:

假設有一次物理考試特別難,滿分100分,全班只有大概20個人及格。與此同時語文考試很簡單,全班絕大部分都考了90分以上。小明的物理和語文分別考了60分和80分,他回家后告訴家長,這時家長能僅僅從兩科科目的分值直接判斷出這次小明的語文成績要比物理好很多嗎?如果不能,應該如何判斷呢?此時Z-score就派上用場了。 Z-Score的計算定義 :

即 將隨機變量X先減去總體樣本均值,再除以總體樣本標準差就得到標準分數啦。如果X低于平均值,則Z為負數,反之為正數 。通過計算標準分數,可以將任何一個一般的正態分布轉化為標準正態分布。

小明家長從老師那得知物理的全班平均成績為40分,標準差為10,而語文的平均成績為92分,標準差為4。分別計算兩科成績的標準分數:

物理:標準分數 = (60-40)/10 = 2

語文:標準分數 = (85-95)/4 = -2.5

從計算結果來看,說明這次考試小明的物理成績在全部同學中算是考得很不錯的,而語文考得很差。

指數分布可能容易和前面的泊松分布混淆,泊松分布強調的是某段時間內隨機事件發生的次數的概率分布,而指數分布說的是 隨機事件發生的時間間隔 的概率分布。比如一班地鐵進站的間隔時間。如果隨機變量X的概率密度為:

則稱X服從指數分布,其中的參數λ0。 對應的分布函數 為:

均勻分布的期望值和方差 分別為:

使用Python繪制指數分布的概率分布圖:

均勻分布有兩種,分為 離散型均勻分布和連續型均勻分布 。其中離散型均勻分布最常見的例子就是拋擲骰子啦。拋擲骰子出現的點數就是一個離散型隨機變量,點數可能有1,2,3,4,5,6。每個數出現的概率都是1/6。

設連續型隨機變量X具有概率密度函數:

則稱X服從區間(a,b)上的均勻分布。X在等長度的子區間內取值的概率相同。對應的分布函數為:

f(x)和F(x)的圖形分別如下圖所示:

均勻分布的期望值和方差 分別為:

[譯] 高斯混合模型 --- python教程

本文翻譯自

上一節中探討的k-means聚類模型簡單易懂,但其簡單性導致其應用中存在實際挑戰。具體而言,k-means的非概率特性及簡單地計算點與類蔟中心的歐式距離來判定歸屬,會導致其在許多真實的場景中性能較差。本節,我們將探討高斯混合模型(GMMs),其可以看成k-means的延伸,更可以看成一個強有力的估計工具,而不僅僅是聚類。

我們將以一個標準的import開始

我們看下k-means的缺陷,思考下如何提高聚類模型。正如上一節所示,給定簡單,易于分類的數據,k-means能找到合適的聚類結果。

舉例而言,假設我們有些簡單的數據點,k-means算法能以某種方式很快地將它們聚類,跟我們肉眼分辨的結果很接近:

從直觀的角度來看,我可能期望聚類分配時,某些點比其他的更確定:舉例而言,中間兩個聚類之間似乎存在非常輕微的重疊,這樣我們可能對這些數據點的分配沒有完全的信心。不幸的是,k-means模型沒有聚類分配的概率或不確定性的內在度量(盡管可能使用bootstrap 的方式來估計這種不確定性)。為此,我們必須考慮泛化這種模型。

k-means模型的一種理解思路是,它在每個類蔟的中心放置了一個圈(或者,更高維度超球面),其半徑由聚類中最遠的點確定。該半徑充當訓練集中聚類分配的一個硬截斷:任何圈外的數據點不被視為該類的成員。我們可以使用以下函數可視化這個聚類模型:

觀察k-means的一個重要發現,這些聚類模式必須是圓形的。k-means沒有內置的方法來計算橢圓形或橢圓形的簇。因此,舉例而言,假設我們將相同的數據點作變換,這種聚類分配方式最終變得混亂:

高斯混合模型(GMM)試圖找到一個多維高斯概率分布的混合,以模擬任何輸入數據集。在最簡單的情況下,GMM可用于以與k-means相同的方式聚類。

但因為GMM包含概率模型,因此可以找到聚類分配的概率方式 - 在Scikit-Learn中,通過調用predict_proba方法實現。它將返回一個大小為[n_samples, n_clusters]的矩陣,用于衡量每個點屬于給定類別的概率:

我們可以可視化這種不確定性,比如每個點的大小與預測的確定性成比例;如下圖,我們可以看到正是群集之間邊界處的點反映了群集分配的不確定性:

本質上說,高斯混合模型與k-means非常相似:它使用期望-最大化的方式,定性地執行以下操作:

有了這個,我們可以看看四成分的GMM為我們的初始數據提供了什么:

同樣,我們可以使用GMM方法來擬合我們的拉伸數據集;允許full的協方差,該模型甚至可以適應非常橢圓形,伸展的聚類模式:

這清楚地表明GMM解決了以前遇到的k-means的兩個主要實際問題。

如果看了之前擬合的細節,你將看到covariance_type選項在每個中都設置不同。該超參數控制每個類簇的形狀的自由度;對于任意給定的問題,必須仔細設置。默認值為covariance_type =“diag”,這意味著可以獨立設置沿每個維度的類蔟大小,并將得到的橢圓約束為與軸對齊。一個稍微簡單和快速的模型是covariance_type =“spherical”,它約束了類簇的形狀,使得所有維度都相等。盡管它并不完全等效,其產生的聚類將具有與k均值相似的特征。更復雜且計算量更大的模型(特別是隨著維數的增長)是使用covariance_type =“full”,這允許將每個簇建模為具有任意方向的橢圓。

對于一個類蔟,下圖我們可以看到這三個選項的可視化表示:

盡管GMM通常被歸類為聚類算法,但從根本上說它是一種密度估算算法。也就是說,GMM適合某些數據的結果在技術上不是聚類模型,而是描述數據分布的生成概率模型。

例如,考慮一下Scikit-Learn的make_moons函數生成的一些數據:

如果我們嘗試用視為聚類模型的雙成分的GMM模擬數據,則結果不是特別有用:

但是如果我們使用更多成分的GMM模型,并忽視聚類的類別,我們會發現更接近輸入數據的擬合:

這里,16個高斯分布的混合不是為了找到分離的數據簇,而是為了對輸入數據的整體分布進行建模。這是分布的一個生成模型,這意味著GMM為我們提供了生成與我們的輸入類似分布的新隨機數據的方法。例如,以下是從這個16分量GMM擬合到我們原始數據的400個新點:

GMM非常方便,可以靈活地建模任意多維數據分布。

GMM是一種生成模型這一事實為我們提供了一種確定給定數據集的最佳組件數的自然方法。生成模型本質上是數據集的概率分布,因此我們可以簡單地評估模型下數據的可能性,使用交叉驗證來避免過度擬合。校正過度擬合的另一種方法是使用一些分析標準來調整模型可能性,例如 Akaike information criterion (AIC) 或 Bayesian information criterion (BIC) 。Scikit-Learn的GMM估計器實際上包含計算這兩者的內置方法,因此在這種方法上操作非常容易。

讓我們看看在moon數據集中,使用AIC和BIC函數確定GMM組件數量:

最佳的聚類數目是使得AIC或BIC最小化的值,具體取決于我們希望使用的近似值。 AIC告訴我們,我們上面選擇的16個組件可能太多了:大約8-12個組件可能是更好的選擇。與此類問題一樣,BIC建議使用更簡單的模型。

注意重點:這個組件數量的選擇衡量GMM作為密度估算器的效果,而不是它作為聚類算法的效果。我鼓勵您將GMM主要視為密度估算器,并且只有在簡單數據集中保證時才將其用于聚類。

我們剛剛看到了一個使用GMM作為數據生成模型的簡單示例,以便根據輸入數據定義的分布創建新樣本。在這里,我們將運行這個想法,并從我們以前使用過的標準數字語料庫中生成新的手寫數字。

首先,讓我們使用Scikit-Learn的數據工具加載數字數據:

接下來讓我們繪制前100個,以準確回憶我們正在看的內容:

我們有64個維度的近1,800位數字,我們可以在這些位置上構建GMM以產生更多。 GMM可能難以在如此高維空間中收斂,因此我們將從數據上的可逆維數減少算法開始。在這里,我們將使用一個簡單的PCA,要求它保留99%的預測數據方差:

結果是41個維度,減少了近1/3,幾乎沒有信息丟失。根據這些預測數據,讓我們使用AIC來計算我們應該使用的GMM組件的數量:

似乎大約110個components最小化了AIC;我們將使用這個模型。我們迅速將其與數據擬合并確保它已收斂合:

現在我們可以使用GMM作為生成模型在這個41維投影空間內繪制100個新點的樣本:

最后,我們可以使用PCA對象的逆變換來構造新的數字:

大部分結果看起來像數據集中合理的數字!

考慮一下我們在這里做了什么:給定一個手寫數字的樣本,我們已經模擬了數據的分布,這樣我們就可以從數據中生成全新的數字樣本:這些是“手寫數字”,不是單獨的出現在原始數據集中,而是捕獲混合模型建模的輸入數據的一般特征。這種數字生成模型可以證明作為貝葉斯生成分類器的一個組成部分非常有用,我們將在下一節中看到。

常見的8個概率分布公式和可視化

概率和統計知識是數據科學和機器學習的核心; 我們需要統計和概率知識來有效地收集、審查、分析數據。

現實世界中有幾個現象實例被認為是統計性質的(即天氣數據、銷售數據、財務數據等)。 這意味著在某些情況下,我們已經能夠開發出方法來幫助我們通過可以描述數據特征的數學函數來模擬自然。

“概率分布是一個數學函數,它給出了實驗中不同可能結果的發生概率?!?/p>

了解數據的分布有助于更好地模擬我們周圍的世界。 它可以幫助我們確定各種結果的可能性,或估計事件的可變性。 所有這些都使得了解不同的概率分布在數據科學和機器學習中非常有價值。

在本文中,我們將介紹一些常見的分布并通過Python 代碼進行可視化以直觀地顯示它們。

最直接的分布是均勻分布。 均勻分布是一種概率分布,其中所有結果的可能性均等。 例如,如果我們擲一個公平的骰子,落在任何數字上的概率是 1/6。 這是一個離散的均勻分布。

但是并不是所有的均勻分布都是離散的——它們也可以是連續的。 它們可以在指定范圍內取任何實際值。 a 和 b 之間連續均勻分布的概率密度函數 (PDF) 如下:

讓我們看看如何在 Python 中對它們進行編碼:

高斯分布可能是最常聽到也熟悉的分布。 它有幾個名字:有人稱它為鐘形曲線,因為它的概率圖看起來像一個鐘形,有人稱它為高斯分布,因為首先描述它的德國數學家卡爾·高斯命名,還有一些人稱它為正態分布,因為早期的統計學家 注意到它一遍又一遍地再次發生。

正態分布的概率密度函數如下:

σ 是標準偏差,μ 是分布的平均值。 要注意的是,在正態分布中,均值、眾數和中位數都是相等的。

當我們繪制正態分布的隨機變量時,曲線圍繞均值對稱——一半的值在中心的左側,一半在中心的右側。 并且,曲線下的總面積為 1。

對于正態分布來說。 經驗規則告訴我們數據的百分比落在平均值的一定數量的標準偏差內。 這些百分比是:

68% 的數據落在平均值的一個標準差內。

95% 的數據落在平均值的兩個標準差內。

99.7% 的數據落在平均值的三個標準差范圍內。

對數正態分布是對數呈正態分布的隨機變量的連續概率分布。 因此,如果隨機變量 X 是對數正態分布的,則 Y = ln(X) 具有正態分布。

這是對數正態分布的 PDF:

對數正態分布的隨機變量只取正實數值。 因此,對數正態分布會創建右偏曲線。

讓我們在 Python 中繪制它:

泊松分布以法國數學家西蒙·丹尼斯·泊松的名字命名。 這是一個離散的概率分布,這意味著它計算具有有限結果的事件——換句話說,它是一個計數分布。 因此,泊松分布用于顯示事件在指定時期內可能發生的次數。

如果一個事件在時間上以固定的速率發生,那么及時觀察到事件的數量(n)的概率可以用泊松分布來描述。 例如,顧客可能以每分鐘 3 次的平均速度到達咖啡館。 我們可以使用泊松分布來計算 9 個客戶在 2 分鐘內到達的概率。

下面是概率質量函數公式:

λ 是一個時間單位的事件率——在我們的例子中,它是 3。k 是出現的次數——在我們的例子中,它是 9。這里可以使用 Scipy 來完成概率的計算。

泊松分布的曲線類似于正態分布,λ 表示峰值。

指數分布是泊松點過程中事件之間時間的概率分布。指數分布的概率密度函數如下:

λ 是速率參數,x 是隨機變量。

可以將二項分布視為實驗中成功或失敗的概率。 有些人也可能將其描述為拋硬幣概率。

參數為 n 和 p 的二項式分布是在 n 個獨立實驗序列中成功次數的離散概率分布,每個實驗都問一個是 - 否問題,每個實驗都有自己的布爾值結果:成功或失敗。

本質上,二項分布測量兩個事件的概率。 一個事件發生的概率為 p,另一事件發生的概率為 1-p。

這是二項分布的公式:

可視化代碼如下:

學生 t 分布(或簡稱 t 分布)是在樣本量較小且總體標準差未知的情況下估計正態分布總體的均值時出現的連續概率分布族的任何成員。 它是由英國統計學家威廉·西利·戈塞特(William Sealy Gosset)以筆名“student”開發的。

PDF如下:

n 是稱為“自由度”的參數,有時可以看到它被稱為“d.o.f.” 對于較高的 n 值,t 分布更接近正態分布。

卡方分布是伽馬分布的一個特例; 對于 k 個自由度,卡方分布是一些獨立的標準正態隨機變量的 k 的平方和。

PDF如下:

這是一種流行的概率分布,常用于假設檢驗和置信區間的構建。

讓我們在 Python 中繪制一些示例圖:

掌握統計學和概率對于數據科學至關重要。 在本文展示了一些常見且常用的分布,希望對你有所幫助。

作者:Kurtis Pykes

本文名稱:高斯分布函數python的簡單介紹
文章轉載:http://www.yijiale78.com/article4/hhsooe.html

成都網站建設公司_創新互聯,為您提供響應式網站、移動網站建設域名注冊小程序開發網站改版、服務器托管

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

網站托管運營