многопроцессорность: как разделить между несколькими процессами?
Программа, которая создает несколько процессов, которые работают в очереди с подключением, Q
и может в конечном итоге манипулировать глобальным словарем D
для хранения результатов. (поэтому каждый дочерний процесс может использовать D
для хранения своего результата, а также посмотреть, какие результаты производят другие дочерние процессы)
Если я печатаю словарь D в дочернем процессе, я вижу модификации, которые были сделаны на нем (т.е. на D). Но после того, как основной процесс присоединяется к Q, если я напечатаю D, это пустой dict!
Я понимаю, что это проблема синхронизации/блокировки. Может ли кто-нибудь сказать мне, что здесь происходит, и как я могу синхронизировать доступ к D?
Ответы
Ответ 1
Общий ответ предполагает использование объекта Manager
. Адаптировано из документов:
from multiprocessing import Process, Manager
def f(d):
d[1] += '1'
d['2'] += 2
if __name__ == '__main__':
manager = Manager()
d = manager.dict()
d[1] = '1'
d['2'] = 2
p1 = Process(target=f, args=(d,))
p2 = Process(target=f, args=(d,))
p1.start()
p2.start()
p1.join()
p2.join()
print d
Вывод:
$ python mul.py
{1: '111', '2': 6}
Ответ 2
многопроцессорность не похожа на потоки. Каждый дочерний процесс получит копию основной памяти процесса. Обычно состояние передается через связь (каналы/сокеты), сигналы или разделяемую память.
Многопроцессорность делает некоторые абстракции доступными для вашего случая использования - совместного использования, которое рассматривается как локальное с помощью прокси или общей памяти: http://docs.python.org/library/multiprocessing.html#sharing-state-between-processes
Соответствующие разделы:
Ответ 3
Я хотел бы поделиться своей собственной работой, которая быстрее, чем Manager dict, и является более простой и стабильной, чем библиотека pyshmht, которая использует тонны памяти и не работает для Mac OS. Хотя мой dict работает только для простых строк и в настоящее время неизменен.
Я использую реализацию линейного зондирования и храню ключи и пары значений в отдельном блоке памяти после таблицы.
from mmap import mmap
import struct
from timeit import default_timer
from multiprocessing import Manager
from pyshmht import HashTable
class shared_immutable_dict:
def __init__(self, a):
self.hs = 1 << (len(a) * 3).bit_length()
kvp = self.hs * 4
ht = [0xffffffff] * self.hs
kvl = []
for k, v in a.iteritems():
h = self.hash(k)
while ht[h] != 0xffffffff:
h = (h + 1) & (self.hs - 1)
ht[h] = kvp
kvp += self.kvlen(k) + self.kvlen(v)
kvl.append(k)
kvl.append(v)
self.m = mmap(-1, kvp)
for p in ht:
self.m.write(uint_format.pack(p))
for x in kvl:
if len(x) <= 0x7f:
self.m.write_byte(chr(len(x)))
else:
self.m.write(uint_format.pack(0x80000000 + len(x)))
self.m.write(x)
def hash(self, k):
h = hash(k)
h = (h + (h >> 3) + (h >> 13) + (h >> 23)) * 1749375391 & (self.hs - 1)
return h
def get(self, k, d=None):
h = self.hash(k)
while True:
x = uint_format.unpack(self.m[h * 4:h * 4 + 4])[0]
if x == 0xffffffff:
return d
self.m.seek(x)
if k == self.read_kv():
return self.read_kv()
h = (h + 1) & (self.hs - 1)
def read_kv(self):
sz = ord(self.m.read_byte())
if sz & 0x80:
sz = uint_format.unpack(chr(sz) + self.m.read(3))[0] - 0x80000000
return self.m.read(sz)
def kvlen(self, k):
return len(k) + (1 if len(k) <= 0x7f else 4)
def __contains__(self, k):
return self.get(k, None) is not None
def close(self):
self.m.close()
uint_format = struct.Struct('>I')
def uget(a, k, d=None):
return to_unicode(a.get(to_str(k), d))
def uin(a, k):
return to_str(k) in a
def to_unicode(s):
return s.decode('utf-8') if isinstance(s, str) else s
def to_str(s):
return s.encode('utf-8') if isinstance(s, unicode) else s
def mmap_test():
n = 1000000
d = shared_immutable_dict({str(i * 2): '1' for i in xrange(n)})
start_time = default_timer()
for i in xrange(n):
if bool(d.get(str(i))) != (i % 2 == 0):
raise Exception(i)
print 'mmap speed: %d gets per sec' % (n / (default_timer() - start_time))
def manager_test():
n = 100000
d = Manager().dict({str(i * 2): '1' for i in xrange(n)})
start_time = default_timer()
for i in xrange(n):
if bool(d.get(str(i))) != (i % 2 == 0):
raise Exception(i)
print 'manager speed: %d gets per sec' % (n / (default_timer() - start_time))
def shm_test():
n = 1000000
d = HashTable('tmp', n)
d.update({str(i * 2): '1' for i in xrange(n)})
start_time = default_timer()
for i in xrange(n):
if bool(d.get(str(i))) != (i % 2 == 0):
raise Exception(i)
print 'shm speed: %d gets per sec' % (n / (default_timer() - start_time))
if __name__ == '__main__':
mmap_test()
manager_test()
shm_test()
На моем ноутбуке производительность:
mmap speed: 247288 gets per sec
manager speed: 33792 gets per sec
shm speed: 691332 gets per sec
простой пример использования:
ht = shared_immutable_dict({'a': '1', 'b': '2'})
print ht.get('a')
Ответ 4
В дополнение к @senderle здесь некоторые могут задаться вопросом, как использовать функциональность multiprocessing.Pool
.
Приятно то, что в экземпляре manager
есть метод .Pool()
, который имитирует все знакомые API верхнего уровня multiprocessing
.
from itertools import repeat
import multiprocessing as mp
import os
import pprint
def f(d):
pid = os.getpid()
d[pid] = "Hi, I was written by process %d" % pid
if __name__ == '__main__':
with mp.Manager() as manager:
d = manager.dict()
with manager.Pool() as pool:
pool.map(f, repeat(d, 10))
# 'd' is a DictProxy object that can be converted to dict
pprint.pprint(dict(d))
Выход:
$ python3 mul.py
{22562: 'Hi, I was written by process 22562',
22563: 'Hi, I was written by process 22563',
22564: 'Hi, I was written by process 22564',
22565: 'Hi, I was written by process 22565',
22566: 'Hi, I was written by process 22566',
22567: 'Hi, I was written by process 22567',
22568: 'Hi, I was written by process 22568',
22569: 'Hi, I was written by process 22569',
22570: 'Hi, I was written by process 22570',
22571: 'Hi, I was written by process 22571'}
Это немного другой пример, где каждый процесс просто записывает свой идентификатор процесса в глобальный объект DictProxy
d
.
Ответ 5
Возможно, вы можете попробовать pyshmht, используя расширение хэш-таблицы на основе памяти для Python.
Примечание
-
Он не полностью протестирован, просто для вашей справки.
-
В настоящее время не хватает механизмов блокировки/семерки для многопроцессорной обработки.
Ответ 6
Это не работает должным образом, по крайней мере, на Python 3.7.2 с использованием OSX 10.14.4
Dict не синхронизируется и его содержимое переписывается другими процессами. Однако multiprocessing.Manager().list()
работает как положено.