Ответ 1
Я не думаю, что это можно эффективно использовать с помощью numpy (однако решение cumprod
было элегантным). Это такая ситуация, когда я бы использовал f2py
. Это самый простой способ вызова более быстрого языка, который я знаю, и требует только одного дополнительного файла.
fortran.f90:
subroutine multimul(a, b)
implicit none
real(8), intent(in) :: a(:,:,:,:)
real(8), intent(out) :: b(size(a,1),size(a,2),size(a,3))
real(8) :: work(size(a,1),size(a,2))
integer i, j, k, l, m
!$omp parallel do private(work,i,j)
do i = 1, size(b,3)
b(:,:,i) = a(:,:,i,size(a,4))
do j = size(a,4)-1, 1, -1
work = matmul(b(:,:,i),a(:,:,i,j))
b(:,:,i) = work
end do
end do
end subroutine
Скомпилируйте с помощью f2py -c -m fortran fortran.f90
(или F90FLAGS="-fopenmp" f2py -c -m fortran fortran.f90 -lgomp
, чтобы включить ускорение OpenMP). Затем вы будете использовать его в своем script как
import numpy as np, fmuls
Arr = np.random.standard_normal([500,201,2,2])
def loopMult(Arr):
ArrMult = Arr[0]
for i in range(1,len(Arr)):
ArrMult = np.einsum('fij,fjk->fik', ArrMult, Arr[i])
return ArrMult
def myeinsum(A1, A2):
return np.einsum('fij,fjk->fik', A1, A2)
A1 = loopMult(Arr)
A2 = reduce(myeinsum, Arr)
A3 = fmuls.multimul(Arr.T).T
print np.allclose(A1,A2)
print np.allclose(A1,A3)
%timeit loopMult(Arr)
%timeit reduce(myeinsum, Arr)
%timeit fmuls.multimul(Arr.T).T
Какие выходы
True
True
10 loops, best of 3: 48.4 ms per loop
10 loops, best of 3: 48.8 ms per loop
100 loops, best of 3: 5.82 ms per loop
Так что коэффициент 8 ускорится. Причиной для всех транспозиций является то, что f2py
неявно переносит все массивы, и нам нужно их вручную транспонировать, чтобы сказать, что наш фортран-код ожидает, что вещи будут транспонированы. Это позволяет избежать операции копирования. Стоимость состоит в том, что каждая из наших матриц 2x2 транспонируется, поэтому, чтобы избежать неправильной операции, мы должны выполнить обратное преобразование.
Большее ускорение, чем 8, должно быть возможным - я не тратил времени, пытаясь оптимизировать это.