Использование @functools.lru_cache со словарными аргументами
У меня есть метод, который принимает (среди прочего) словарь в качестве аргумента. Этот метод представляет собой синтаксический анализ строк, и словарь предоставляет замены для некоторых подстрок, поэтому он не должен изменяться.
Эта функция вызывается довольно часто, а для избыточных элементов я полагаю, что кеширование повысит ее эффективность.
Но, как вы могли догадаться, поскольку dict
является изменяемым и, следовательно, не хешируется, @functools.lru_cache
не может украсить мою функцию. Итак, как я могу это преодолеть?
Бонусная точка, если ей нужны только стандартные классы и методы библиотеки. В идеале, если в стандартной библиотеке существует какой-то frozendict
, который я не видел, это сделает мой день.
PS: namedtuple
только в крайнем случае, так как для этого потребуется большой синтаксический сдвиг.
Ответы
Ответ 1
Вместо использования настраиваемого хешируемого словаря, используйте его и не изобретайте колесо! Это замороженный словарь, который все можно хэшировать.
https://pypi.org/project/frozendict/
Код:
def freezeargs(func):
"""Transform mutable dictionnary
Into immutable
Useful to be compatible with cache
"""
@functools.wraps(func)
def wrapped(*args, **kwargs):
args = tuple([frozendict(arg) if isinstance(arg, dict) else arg for arg in args])
kwargs = {k: frozendict(v) if isinstance(v, dict) else v for k, v in kwargs.items()}
return func(*args, **kwargs)
return wrapped
а потом
@freezeargs
@lru_cache
def func(...):
pass
Код взят из @fast_cen ответа
Примечание: это не работает на рекурсивных структурах данных; например, у вас может быть аргумент, что список, который не подлежит изменению. Вам предлагается сделать обертку рекурсивной, чтобы она углублялась в структуру данных и dict
каждый dict
и каждый list
.
(Я знаю, что OP nolonger хочет найти решение, но я пришел сюда в поисках того же решения, так что оставлю это для будущих поколений)
Ответ 2
Как создать класс хеширования dict
следующим образом:
class HDict(dict):
def __hash__(self):
return hash(frozenset(self.items()))
substs = HDict({'foo': 'bar', 'baz': 'quz'})
cache = {substs: True}
Ответ 3
Вот декоратор, который использует трюк @mhyfritz.
def hash_dict(func):
"""Transform mutable dictionnary
Into immutable
Useful to be compatible with cache
"""
class HDict(dict):
def __hash__(self):
return hash(frozenset(self.items()))
@functools.wraps(func)
def wrapped(*args, **kwargs):
args = tuple([HDict(arg) if isinstance(arg, dict) else arg for arg in args])
kwargs = {k: HDict(v) if isinstance(v, dict) else v for k, v in kwargs.items()}
return func(*args, **kwargs)
return wrapped
Просто добавьте его перед вашим lru_cache.
@hash_dict
@functools.lru_cache()
def your_function():
...
Ответ 4
Как насчет подкласса namedtuple
и добавить доступ x["key"]
?
class X(namedtuple("Y", "a b c")):
def __getitem__(self, item):
if isinstance(item, int):
return super(X, self).__getitem__(item)
return getattr(self, item)
Ответ 5
Здесь декоратор, который можно использовать как functools.lru_cache
. Но это нацеливается на функции, которые принимают только один аргумент, который является плоским отображением с хешируемыми значениями и имеет фиксированный maxsize
из 64. Для вашего случая использования вам придется адаптировать этот пример или ваш код клиента. Кроме того, чтобы установить maxsize
индивидуально, нужно было реализовать другой декоратор, но я не обернул его вокруг, так как он мне не нужен.
from functools import (_CacheInfo, _lru_cache_wrapper, lru_cache,
partial, update_wrapper)
from typing import Any, Callable, Dict, Hashable
def lru_dict_arg_cache(func: Callable) -> Callable:
def unpacking_func(func: Callable, arg: frozenset) -> Any:
return func(dict(arg))
_unpacking_func = partial(unpacking_func, func)
_cached_unpacking_func = \
_lru_cache_wrapper(_unpacking_func, 64, False, _CacheInfo)
def packing_func(arg: Dict[Hashable, Hashable]) -> Any:
return _cached_unpacking_func(frozenset(arg.items()))
update_wrapper(packing_func, func)
packing_func.cache_info = _cached_unpacking_func.cache_info
return packing_func
@lru_dict_arg_cache
def uppercase_keys(arg: dict) -> dict:
""" Yelling keys. """
return {k.upper(): v for k, v in arg.items()}
assert uppercase_keys.__name__ == 'uppercase_keys'
assert uppercase_keys.__doc__ == ' Yelling keys. '
assert uppercase_keys({'ham': 'spam'}) == {'HAM': 'spam'}
assert uppercase_keys({'ham': 'spam'}) == {'HAM': 'spam'}
cache_info = uppercase_keys.cache_info()
assert cache_info.hits == 1
assert cache_info.misses == 1
assert cache_info.maxsize == 64
assert cache_info.currsize == 1
assert uppercase_keys({'foo': 'bar'}) == {'FOO': 'bar'}
assert uppercase_keys({'foo': 'baz'}) == {'FOO': 'baz'}
cache_info = uppercase_keys.cache_info()
assert cache_info.hits == 1
assert cache_info.misses == 3
assert cache_info.currsize == 3
Для более общего подхода можно использовать декоратор @cachetools.cache из сторонней библиотеки с соответствующим набором функций как key
.
Ответ 6
После решения отказаться от кеша lru для нашего варианта использования, мы все же придумали решение. Этот декоратор использует json для сериализации и десериализует args/kwargs, отправленные в кеш. Работает с любым количеством аргументов. Используйте его как декоратор для функции вместо @lru_cache. Максимальный размер установлен на 1024.
def hashable_lru(func):
cache = lru_cache(maxsize=1024)
def deserialise(value):
try:
return json.loads(value)
except Exception:
return value
def func_with_serialized_params(*args, **kwargs):
_args = tuple([deserialise(arg) for arg in args])
_kwargs = {k: deserialise(v) for k, v in kwargs.items()}
return func(*_args, **_kwargs)
cached_function = cache(func_with_serialized_params)
@wraps(func)
def lru_decorator(*args, **kwargs):
_args = tuple([json.dumps(arg, sort_keys=True) if type(arg) in (list, dict) else arg for arg in args])
_kwargs = {k: json.dumps(v, sort_keys=True) if type(v) in (list, dict) else v for k, v in kwargs.items()}
return cached_function(*_args, **_kwargs)
lru_decorator.cache_info = cached_function.cache_info
lru_decorator.cache_clear = cached_function.cache_clear
return lru_decorator