Установка распределения Вейбулла с использованием Scipy
Я пытаюсь воссоздать фикцию максимального правдоподобия, я уже могу это сделать в Matlab и R, но теперь я хочу использовать scipy. В частности, я хотел бы оценить параметры распределения Вейбулла для моего набора данных.
Я пробовал это:
import scipy.stats as s
import numpy as np
import matplotlib.pyplot as plt
def weib(x,n,a):
return (a / n) * (x / n)**(a - 1) * np.exp(-(x / n)**a)
data = np.loadtxt("stack_data.csv")
(loc, scale) = s.exponweib.fit_loc_scale(data, 1, 1)
print loc, scale
x = np.linspace(data.min(), data.max(), 1000)
plt.plot(x, weib(x, loc, scale))
plt.hist(data, data.max(), normed=True)
plt.show()
И получите следующее:
(2.5827280639441961, 3.4955032285727947)
И распределение, которое выглядит так:
![Weibull distribution using Scipy]()
Я использовал exponweib
после прочтения этого http://www.johndcook.com/distributions_scipy.html. Я также пробовал другие функции Вейбулла в scipy (на всякий случай!).
В Matlab (с использованием инструмента распределения по расписанию - см. снимок экрана) и в R (с использованием как библиотечной функции MASS fitdistr
, так и пакета GAMLSS) я получаю параметры (loc) и b (scale), похожие на 1.58463497 5.93030013. Я считаю, что все три метода используют метод максимального правдоподобия для установки распределения.
![Weibull distribution using Matlab]()
Я разместил свои данные здесь, если вы хотите, чтобы вы пошли! И для полноты я использую Python 2.7.5, Scipy 0.12.0, R 2.15.2 и Matlab 2012b.
Почему я получаю другой результат?
Ответы
Ответ 1
Моя догадка заключается в том, что вы хотите оценить параметр формы и масштаб распределения Вейбулла, сохраняя фиксированное местоположение. Фиксирование loc
предполагает, что значения ваших данных и распределения положительны с нижней границей в нуле.
floc=0
сохраняет фиксированное значение в нуле, f0=1
сохраняет первый параметр формы экспоненциального weibull, зафиксированный на одном.
>>> stats.exponweib.fit(data, floc=0, f0=1)
[1, 1.8553346917584836, 0, 6.8820748596850905]
>>> stats.weibull_min.fit(data, floc=0)
[1.8553346917584836, 0, 6.8820748596850549]
Пригодность по сравнению с гистограммой выглядит нормально, но не очень хорошая. Оценки параметров немного выше, чем те, которые вы упоминаете, из R и matlab.
Обновление
Ближайший я могу добраться до сюжета, который теперь доступен, с неограниченной посадкой, но с использованием начальных значений. Сюжет еще меньше. В качестве начальных значений используются значения значений, которые не имеют f спереди.
>>> from scipy import stats
>>> import matplotlib.pyplot as plt
>>> plt.plot(data, stats.exponweib.pdf(data, *stats.exponweib.fit(data, 1, 1, scale=02, loc=0)))
>>> _ = plt.hist(data, bins=np.linspace(0, 16, 33), normed=True, alpha=0.5);
>>> plt.show()
![exponweib fit]()
Ответ 2
Легко проверить, какой результат является истинным MLE, просто нужна простая функция для вычисления логарифмического правдоподобия:
>>> def wb2LL(p, x): #log-likelihood
return sum(log(stats.weibull_min.pdf(x, p[1], 0., p[0])))
>>> adata=loadtxt('/home/user/stack_data.csv')
>>> wb2LL(array([6.8820748596850905, 1.8553346917584836]), adata)
-8290.1227946678173
>>> wb2LL(array([5.93030013, 1.57463497]), adata)
-8410.3327470347667
Результат от fit
метода exponweib
и R fitdistr
(@Warren) лучше и имеет более высокий логарифмический правдоподобия. Скорее всего, это настоящий MLE. Неудивительно, что результат GAMLSS отличается. Это совершенно другая статистическая модель: обобщенная аддитивная модель.
Все еще не убежден? Мы можем нарисовать двумерный график доверительных ограничений вокруг MLE, подробнее см. Книгу Meeker и Escobar). ![Multi-dimensional Confidence Region]()
Опять же, это подтверждает, что array([6.8820748596850905, 1.8553346917584836])
- правильный ответ, поскольку логарифмичность ниже, чем любая другая точка в пространстве параметров. Примечание:
>>> log(array([6.8820748596850905, 1.8553346917584836]))
array([ 1.92892018, 0.61806511])
BTW1, MLE подходит, возможно, не соответствует гистограмме распределения. Легкий способ думать о MLE заключается в том, что MLE - это оценка параметров, наиболее вероятная с учетом наблюдаемых данных. Он не нуждается в визуальной подгонке гистограммы, это будет чем-то, сводящим к минимуму среднеквадратичную ошибку.
BTW2, ваши данные выглядят лептокуртическими и левыми, что означает, что распределение Weibull может не соответствовать вашим данным. Попробуйте, например. Gompertz-Logistic, что улучшает лог-правдоподобие еще на 100.
![enter image description here]()
Ура!
Ответ 3
Мне был интересен ваш вопрос, и, несмотря на это, это не ответ, он сравнивает результат Matlab
с вашим результатом и результатом с использованием leastsq
, который показал наилучшую корреляцию с данными:
![enter image description here]()
Код выглядит следующим образом:
import scipy.stats as s
import numpy as np
import matplotlib.pyplot as plt
import numpy.random as mtrand
from scipy.integrate import quad
from scipy.optimize import leastsq
## my distribution (Inverse Normal with shape parameter mu=1.0)
def weib(x,n,a):
return (a / n) * (x / n)**(a-1) * np.exp(-(x/n)**a)
def residuals(p,x,y):
integral = quad( weib, 0, 16, args=(p[0],p[1]) )[0]
penalization = abs(1.-integral)*100000
return y - weib(x, p[0],p[1]) + penalization
#
data = np.loadtxt("stack_data.csv")
x = np.linspace(data.min(), data.max(), 100)
n, bins, patches = plt.hist(data,bins=x, normed=True)
binsm = (bins[1:]+bins[:-1])/2
popt, pcov = leastsq(func=residuals, x0=(1.,1.), args=(binsm,n))
loc, scale = 1.58463497, 5.93030013
plt.plot(binsm,n)
plt.plot(x, weib(x, loc, scale),
label='weib matlab, loc=%1.3f, scale=%1.3f' % (loc, scale), lw=4.)
loc, scale = s.exponweib.fit_loc_scale(data, 1, 1)
plt.plot(x, weib(x, loc, scale),
label='weib stack, loc=%1.3f, scale=%1.3f' % (loc, scale), lw=4.)
plt.plot(x, weib(x,*popt),
label='weib leastsq, loc=%1.3f, scale=%1.3f' % tuple(popt), lw=4.)
plt.legend(loc='upper right')
plt.show()
Ответ 4
Я знаю, что это старый пост, но я столкнулся с подобной проблемой, и этот поток помог мне решить эту проблему. Думал, что мое решение может быть полезно для других, таких как я:
# Fit Weibull function, some explanation below
params = stats.exponweib.fit(data, floc=0, f0=1)
shape = params[1]
scale = params[3]
print 'shape:',shape
print 'scale:',scale
#### Plotting
# Histogram first
values,bins,hist = plt.hist(data,bins=51,range=(0,25),normed=True)
center = (bins[:-1] + bins[1:]) / 2.
# Using all params and the stats function
plt.plot(center,stats.exponweib.pdf(center,*params),lw=4,label='scipy')
# Using my own Weibull function as a check
def weibull(u,shape,scale):
'''Weibull distribution for wind speed u with shape parameter k and scale parameter A'''
return (shape / scale) * (u / scale)**(shape-1) * np.exp(-(u/scale)**shape)
plt.plot(center,weibull(center,shape,scale),label='Wind analysis',lw=2)
plt.legend()
Дополнительная информация, которая помогла мне понять:
Функция Scipy Weibull может принимать четыре входных параметра: (a, c), loc и scale.
Вы хотите исправить loc и первый параметр формы (a), это делается с floc = 0, f0 = 1. Затем фитинг даст вам параметры c и масштаб, где c соответствует параметру формы двухпараметрического распределения Вейбулла (часто используется при анализе данных ветра), а масштаб соответствует его масштабному коэффициенту.
Из документов:
exponweib.pdf(x, a, c) =
a * c * (1-exp(-x**c))**(a-1) * exp(-x**c)*x**(c-1)
Если a равно 1, то
exponweib.pdf(x, a, c) =
c * (1-exp(-x**c))**(0) * exp(-x**c)*x**(c-1)
= c * (1) * exp(-x**c)*x**(c-1)
= c * x **(c-1) * exp(-x**c)
Отсюда следует, что отношение к функции Вейбулла "анализ ветра" должно быть более ясным.
Ответ 5
У меня была та же проблема, но обнаружил, что установка loc=0
в exponweib.fit
загрузила насос для оптимизации. Это все, что нужно от @user333700 answer. Я не мог загрузить ваши данные - ваша ссылка указывает на изображение, а не на данные. Поэтому я выполнил тест по своим данным:
![Plot of distribution fit to problematic (bimodal?) data]()
import scipy.stats as ss
import matplotlib.pyplot as plt
import numpy as np
N=30
counts, bins = np.histogram(x, bins=N)
bin_width = bins[1]-bins[0]
total_count = float(sum(counts))
f, ax = plt.subplots(1, 1)
f.suptitle(query_uri)
ax.bar(bins[:-1]+bin_width/2., counts, align='center', width=.85*bin_width)
ax.grid('on')
def fit_pdf(x, name='lognorm', color='r'):
dist = getattr(ss, name) # params = shape, loc, scale
# dist = ss.gamma # 3 params
params = dist.fit(x, loc=0) # 1-day lag minimum for shipping
y = dist.pdf(bins, *params)*total_count*bin_width
sqerror_sum = np.log(sum(ci*(yi - ci)**2. for (ci, yi) in zip(counts, y)))
ax.plot(bins, y, color, lw=3, alpha=0.6, label='%s err=%3.2f' % (name, sqerror_sum))
return y
colors = ['r-', 'g-', 'r:', 'g:']
for name, color in zip(['exponweib', 't', 'gamma'], colors): # 'lognorm', 'erlang', 'chi2', 'weibull_min',
y = fit_pdf(x, name=name, color=color)
ax.legend(loc='best', frameon=False)
plt.show()
Ответ 6
Несколько ответов на это уже здесь и в других местах. likt в Распределение Weibull и данные на том же рисунке (с numpy и scipy)
Мне потребовалось некоторое время, чтобы придумать пример чистой игрушки, поэтому, хотя было бы полезно отправить сообщение.
from scipy import stats
import matplotlib.pyplot as plt
#input for pseudo data
N = 10000
Kappa_in = 1.8
Lambda_in = 10
a_in = 1
loc_in = 0
#Generate data from given input
data = stats.exponweib.rvs(a=a_in,c=Kappa_in, loc=loc_in, scale=Lambda_in, size = N)
#The a and loc are fixed in the fit since it is standard to assume they are known
a_out, Kappa_out, loc_out, Lambda_out = stats.exponweib.fit(data, f0=a_in,floc=loc_in)
#Plot
bins = range(51)
fig = plt.figure()
ax = fig.add_subplot(1, 1, 1)
ax.plot(bins, stats.exponweib.pdf(bins, a=a_out,c=Kappa_out,loc=loc_out,scale = Lambda_out))
ax.hist(data, bins = bins , normed=True, alpha=0.5)
ax.annotate("Shape: $k = %.2f$ \n Scale: $\lambda = %.2f$"%(Kappa_out,Lambda_out), xy=(0.7, 0.85), xycoords=ax.transAxes)
plt.show()
Ответ 7
порядок слова и масштаб перепутаны в коде:
plt.plot(x, weib(x, scale, loc))
параметр масштаба должен быть первым.
Ответ 8
В функции fit есть 3 параметра:
-
Параметры формы: в этом случае,
мы имеем два параметра формы, которые можно зафиксировать в соответствии с f0 и f1. (Попробуйте сами!). Обычно имя параметра обозначается как f% d, где d - номер формы.
-
Параметр местоположения: используйте floc, чтобы исправить это. Если вы не фиксируете floc, среднее из данных выводится как loc.
-
Параметр масштабирования: используйте fscale, чтобы исправить это.
Возврат любого соответствия выдается в этом порядке.
Следуя строкам @Peter9192, я нашел наилучшее соответствие для CDF Weibull из ~ 20-30 образцов данных, используя следующее:
_,gamma,_alpha=scipy.stats.exponweib.fit(data,floc=0,f0=1)
Формула для CDF:
1-np.exp(-np.power(x/alpha,gamma))
Значения для данных, которые я оценил с использованием метода оценки K-M, соответствующего распределению Вейбулла, дали мне хорошие значения.
Чтобы зафиксировать a как 1, я не нашел loc = 0, scale = 1 как лучший метод, как вы можете отчетливо видеть в 4 возвращаемых значениях параметров. Во-вторых, использование гамма-альфа из нее не выдавало правильного значения Вейбулла.
Наконец, я подтвердил, какой метод лучше всего работает, вычисляя среднее значение распределения Вейбулла, используя:
Mean=alpha*scipy.special.gamma(1+(1/gamma))
Значения, которые я получил, соответствуют моему приложению.
Здесь вы можете проверить формулы среднего и CDF для ссылки: https://en.m.wikipedia.org/wiki/Weibull_distribution