Scipy: логнормальная подгонка

Было довольно много сообщений о работе с дистрибутивом lognorm со Scipy, но я все равно не понимаю его.

Параметр lognormal 2 обычно описывается параметрами \mu и \sigma, которые соответствуют Scipys loc=0 и \sigma=shape, \mu=np.log(scale).

В scipy, lognormal distribution - parameters, мы можем прочитать, как сгенерировать образец lognorm(\mu,\sigma), используя экспоненту случайного распределения. Теперь попробуем что-то еще:

А)

Проблема с созданием lognorm напрямую:

# lognorm(mu=10,sigma=3)
# so shape=3, loc=0, scale=np.exp(10) ?
x=np.linspace(0.01,20,200)
sample_dist = sp.stats.lognorm.pdf(x, 3, loc=0, scale=np.exp(10))
shape, loc, scale = sp.stats.lognorm.fit(sample_dist, floc=0)
print shape, loc, scale
print np.log(scale), shape # mu and sigma
# last line: -7.63285693379 0.140259699945  # not 10 and 3

В)

Я использую возвращаемые значения подгонки для создания установленного дистрибутива. Но опять-таки я сделал что-то неправильное, по-видимому:

samp=sp.stats.lognorm(0.5,loc=0,scale=1).rvs(size=2000) # sample
param=sp.stats.lognorm.fit(samp) # fit the sample data
print param # does not coincide  with shape, loc, scale above!
x=np.linspace(0,4,100)
pdf_fitted = sp.stats.lognorm.pdf(x, param[0], loc=param[1], scale=param[2]) # fitted distribution
pdf = sp.stats.lognorm.pdf(x, 0.5, loc=0, scale=1) # original distribution
plt.plot(x,pdf_fitted,'r-',x,pdf,'g-')
plt.hist(samp,bins=30,normed=True,alpha=.3)

lognorm

Ответы

Ответ 1

Я сделал те же наблюдения: в большинстве случаев сбой во всех параметрах не выполняется. Вы можете помочь, предложив лучшую начальную догадку, исправление параметра не требуется.

samp = stats.lognorm(0.5,loc=0,scale=1).rvs(size=2000)

# this is where the fit gets it initial guess from
print stats.lognorm._fitstart(samp)

(1.0, 0.66628696413404565, 0.28031095750445462)

print stats.lognorm.fit(samp)
# note that the fit failed completely as the parameters did not change at all

(1.0, 0.66628696413404565, 0.28031095750445462)

# fit again with a better initial guess for loc
print stats.lognorm.fit(samp, loc=0)

(0.50146296628099118, 0.0011019321419653122, 0.99361128537912125)

Вы также можете создать свою собственную функцию для вычисления начального предположения, например:

def your_func(sample):
    # do some magic here
    return guess

stats.lognorm._fitstart = your_func

Ответ 2

Я понял свои ошибки:

A) Образцы, которые я рисую, должны поступать из метода .rvs. Вот так: sample_dist = sp.stats.lognorm.rvs(3, loc=0, scale=np.exp(10), size=2000)

B) Пригонка имеет некоторые проблемы. Когда мы фиксируем параметр loc, пригонка становится намного лучше. param=sp.stats.lognorm.fit(samp, floc=0)

Ответ 3

Эта проблема исправлена ​​в новых версиях scipy. После обновления scipy0.9 до scipy0.14 проблема исчезает.

Ответ 4

Я ответил в здесь

Я оставляю код здесь только для ленивых: D

import scipy
import matplotlib.pyplot as plt
import seaborn as sns
import numpy as np

mu = 10 # Mean of sample !!! Make sure your data is positive for the lognormal example 
sigma = 1.5 # Standard deviation of sample
N = 2000 # Number of samples

norm_dist = scipy.stats.norm(loc=mu, scale=sigma) # Create Random Process
x = norm_dist.rvs(size=N) # Generate samples

# Fit normal
fitting_params = scipy.stats.norm.fit(x)
norm_dist_fitted = scipy.stats.norm(*fitting_params)
t = np.linspace(np.min(x), np.max(x), 100)

# Plot normals
f, ax = plt.subplots(1, sharex='col', figsize=(10, 5))
sns.distplot(x, ax=ax, norm_hist=True, kde=False, label='Data X~N(mu={0:.1f}, sigma={1:.1f})'.format(mu, sigma))
ax.plot(t, norm_dist_fitted.pdf(t), lw=2, color='r',
        label='Fitted Model X~N(mu={0:.1f}, sigma={1:.1f})'.format(norm_dist_fitted.mean(), norm_dist_fitted.std()))
ax.plot(t, norm_dist.pdf(t), lw=2, color='g', ls=':',
        label='Original Model X~N(mu={0:.1f}, sigma={1:.1f})'.format(norm_dist.mean(), norm_dist.std()))
ax.legend(loc='lower right')
plt.show()


# The lognormal model fits to a variable whose log is normal
# We create our variable whose log is normal 'exponenciating' the previous variable

x_exp = np.exp(x)
mu_exp = np.exp(mu)
sigma_exp = np.exp(sigma)

fitting_params_lognormal = scipy.stats.lognorm.fit(x_exp, floc=0, scale=mu_exp)
lognorm_dist_fitted = scipy.stats.lognorm(*fitting_params_lognormal)
t = np.linspace(np.min(x_exp), np.max(x_exp), 100)

# Here is the magic I was looking for a long long time
lognorm_dist = scipy.stats.lognorm(s=sigma, loc=0, scale=np.exp(mu))
# Plot lognormals
f, ax = plt.subplots(1, sharex='col', figsize=(10, 5))
sns.distplot(x_exp, ax=ax, norm_hist=True, kde=False,
             label='Data exp(X)~N(mu={0:.1f}, sigma={1:.1f})\n X~LogNorm(mu={0:.1f}, sigma={1:.1f})'.format(mu, sigma))
ax.plot(t, lognorm_dist_fitted.pdf(t), lw=2, color='r',
        label='Fitted Model X~LogNorm(mu={0:.1f}, sigma={1:.1f})'.format(lognorm_dist_fitted.mean(), lognorm_dist_fitted.std()))
ax.plot(t, lognorm_dist.pdf(t), lw=2, color='g', ls=':',
        label='Original Model X~LogNorm(mu={0:.1f}, sigma={1:.1f})'.format(lognorm_dist.mean(), lognorm_dist.std()))
ax.legend(loc='lower right')
plt.show()

Хитрость заключается в том, чтобы понять эти две вещи:

  1. Если EXP переменной НОРМАЛЬНО с MU и STD → EXP (X) ~ scipy.stats.lognorm(s = сигма, loc = 0, масштаб = np.exp(mu))
  2. Если ваша переменная (x) имеет форму LOGNORMAL, модель будет scipy.stats.lognorm(s = sigmaX, loc = 0, scale = muX) с участием:
    • muX = np.mean(np.log(x))
    • sigmaX = np.std(np.log(x))

Ответ 5

Если вы просто заинтересованы в заговоре, вы можете использовать seaborn для получения нормального распределения.

import seaborn as sns
import numpy as np

mu=0
sigma=1
n=1000

x=np.random.normal(mu,sigma,n)
sns.distplot(x, fit=sp_stats.norm) #normal distribution

loc=0
scale=1

x=np.log(np.random.lognormal(loc,scale,n))
sns.distplot(x, fit=sp_stats.lognorm) #log normal distribution