現在我們已經了解了如何在離散和連續設置中使用概率,讓我們了解一些常見的分布。根據機器學習領域的不同,我們可能需要熟悉更多這些,或者對于深度學習的某些領域可能根本不需要。然而,這是一個需要熟悉的很好的基本列表。讓我們首先導入一些常用庫。
%matplotlib inline
from math import erf, factorial
import tensorflow as tf
import tensorflow_probability as tfp
from IPython import display
from d2l import tensorflow as d2l
tf.pi = tf.acos(tf.zeros(1)) * 2 # Define pi in TensorFlow
22.8.1。伯努利
這是通常遇到的最簡單的隨機變量。這個隨機變量編碼出現的拋硬幣1有概率 p和0有概率1?p. 如果我們有一個隨機變量X有了這個分布,我們將寫
累積分布函數是
概率質量函數繪制如下。
p = 0.3
d2l.set_figsize()
d2l.plt.stem([0, 1], [1 - p, p], use_line_collection=True)
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.show()
現在,讓我們繪制累積分布函數 (22.8.2)。
如果X~Bernoulli(p), 然后:
-
μX=p,
-
σX2=p(1?p).
我們可以從伯努利隨機變量中采樣任意形狀的數組,如下所示。
tensor([[0, 0, 1, 0, 0, 0, 1, 1, 0, 0],
[1, 1, 0, 1, 0, 1, 0, 0, 0, 0],
[0, 0, 1, 0, 1, 0, 1, 0, 1, 0],
[1, 1, 1, 0, 1, 1, 0, 0, 0, 1],
[0, 0, 0, 0, 0, 0, 1, 0, 1, 0],
[1, 1, 0, 1, 0, 0, 0, 0, 0, 1],
[1, 0, 1, 1, 0, 0, 0, 0, 0, 0],
[0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1, 0, 0, 1, 0, 0, 0, 0, 0, 1],
[0, 0, 1, 0, 0, 1, 0, 1, 0, 1]])
評論
查看更多