對於觀測的結果(data),其出現的概率稱做為probability,寫成 P(data)。對於不同的結果,可用模式(model)來預測其出現的可能性。在這邊data是變動的,而model是固定的:
- P(data1 | model)
- P(data2 | model)
- P(data3 | model)
但是通常觀測的結果是會有一組,所以對於某組觀測的結果根據不同的模式計算出來的可能性則稱做likelihood,寫成 L。在這邊model是變動的,而data則是固定的,表示成:
- L(model1 | data)
- L(model2 | data)
- L(model3 | data)
不管是probability還是likelihood,說的都是data出現的可能性,因此可以寫成:
- P(dataX | modelY) = L(modelY | dataX)
- P(data | model) :不同的data根據某個model來解釋,不同data出現的可能性
- L(model | data) :不同的model來解釋某個data,不同model解釋下,data出現的可能性
總是會希望得到最好的model,意思就是這model最能夠反映出data,所以就會去調整likelihood function L(model | data) 裡面的model的參數,以得到最佳的model來解釋data,這個過程就叫做maximum likelihood estimation。
要特別注意的是,maximum likelihood estimation得到的模式只會是最適合某觀測結果,但要是data有所偏差,那這樣做出來的模式也許就不會是最佳的那個,範例可以陳鍾誠寫的最大慨似估計。
Probability與Likelihood看起來很像條件機率,可以參考Bayes's Theorem
_EOF_
沒有留言:
張貼留言