Каска эффективная программа преобразования матриц?
Таким образом, очевидным способом транспонирования матрицы является использование:
for( int i = 0; i < n; i++ )
for( int j = 0; j < n; j++ )
destination[j+i*n] = source[i+j*n];
но я хочу что-то, что позволит использовать локальность и блокировку кеша. Я искал его и не могу найти код, который бы это сделал, но мне сказали, что это будет очень простая модификация оригинала. Есть идеи?
Изменить: у меня есть матрица 2000x2000, и я хочу знать, как изменить код с помощью двух циклов for
, в основном разбивая матрицу на блоки, которые я переношу отдельно, скажем, 2x2 блоков или 40x40 блоков, и см. размер блока которого наиболее эффективен.
Edit2: Матрицы хранятся в главном порядке столбца, то есть для матрицы
a1 a2
a3 a4
хранится как a1 a3 a2 a4
.
Ответы
Ответ 1
Вероятно, вам понадобится четыре петли - два для перебора блоков, а затем еще два для выполнения транспонирования копии одного блока. Предполагая для простоты размер блока, который делит размер матрицы, я думаю, что-то вроде этого, хотя я бы хотел сделать некоторые снимки на обратной стороне конвертов:
for (int i = 0; i < n; i += blocksize) {
for (int j = 0; j < n; j += blocksize) {
// transpose the block beginning at [i,j]
for (int k = i; k < i + blocksize; ++k) {
for (int l = j; l < j + blocksize; ++l) {
dst[k + l*n] = src[l + k*n];
}
}
}
}
Важным дополнительным пониманием является то, что на самом деле для этого нет кэш-алгоритма (см. http://en.wikipedia.org/wiki/Cache-oblivious_algorithm, который использует эту точную проблему как пример). Неофициальное определение "кэша-забывания" заключается в том, что вам не нужно экспериментировать с настройкой любых параметров (в данном случае блоками) для достижения хорошей/оптимальной производительности кеша. Решением в этом случае является транспонирование путем рекурсивного деления матрицы пополам и переноса половин в их правильное положение в пункте назначения.
Независимо от размера кэша, эта рекурсия использует его. Я ожидаю, что там будет немного лишних затрат на управление по сравнению с вашей стратегией, которая заключается в том, чтобы использовать эксперименты с производительностью, чтобы, по сути, перейти прямо к точке рекурсии, в которой кеш действительно заводится, и не идти дальше. С другой стороны, ваши эксперименты по производительности могут дать вам ответ, который будет работать на вашем компьютере, но не на компьютерах ваших клиентов.
Ответ 2
У меня была такая же проблема вчера.
Я закончил с этим решением:
void transpose(double *dst, const double *src, size_t n, size_t p) noexcept {
THROWS();
size_t block = 32;
for (size_t i = 0; i < n; i += block) {
for(size_t j = 0; j < p; ++j) {
for(size_t b = 0; b < block && i + b < n; ++b) {
dst[j*n + i + b] = src[(i + b)*p + j];
}
}
}
}
Это на 4 раза быстрее, чем очевидное решение на моей машине.
Это решение заботится о прямоугольной матрице с размерами, которые не кратно размеру блока.
если dst и src являются одной и той же квадратной матрицей, вместо этого следует использовать функцию:
void transpose(double*m,size_t n)noexcept{
size_t block=0,size=8;
for(block=0;block+size-1<n;block+=size){
for(size_t i=block;i<block+size;++i){
for(size_t j=i+1;j<block+size;++j){
std::swap(m[i*n+j],m[j*n+i]);}}
for(size_t i=block+size;i<n;++i){
for(size_t j=block;j<block+size;++j){
std::swap(m[i*n+j],m[j*n+i]);}}}
for(size_t i=block;i<n;++i){
for(size_t j=i+1;j<n;++j){
std::swap(m[i*n+j],m[j*n+i]);}}}
Я использовал С++ 11, но это было легко перевести на другие языки.
Ответ 3
Вместо того, чтобы переносить матрицу в памяти, почему бы не свернуть операцию транспонирования в следующую операцию, которую вы собираетесь делать на матрице?
Ответ 4
Стив Джессоп упомянул алгоритм транспонирования кэша забытых матриц.
Для записи я хочу поделиться возможной реализацией кэша забываемой матрицы транспонирования.
public class Matrix {
protected double data[];
protected int rows, columns;
public Matrix(int rows, int columns) {
this.rows = rows;
this.columns = columns;
this.data = new double[rows * columns];
}
public Matrix transpose() {
Matrix C = new Matrix(columns, rows);
cachetranspose(0, rows, 0, columns, C);
return C;
}
public void cachetranspose(int rb, int re, int cb, int ce, Matrix T) {
int r = re - rb, c = ce - cb;
if (r <= 16 && c <= 16) {
for (int i = rb; i < re; i++) {
for (int j = cb; j < ce; j++) {
T.data[j * rows + i] = data[i * columns + j];
}
}
} else if (r >= c) {
cachetranspose(rb, rb + (r / 2), cb, ce, T);
cachetranspose(rb + (r / 2), re, cb, ce, T);
} else {
cachetranspose(rb, re, cb, cb + (c / 2), T);
cachetranspose(rb, re, cb + (c / 2), ce, T);
}
}
}
Более подробную информацию о забытых алгоритмах кэша можно найти здесь.
Ответ 5
"Матричное умножение" пришло в голову, но проблема с кешем там гораздо более выражена, потому что каждый элемент читается N раз.
С транспонированием матрицы вы читаете в одном линейном проходе, и нет возможности оптимизировать это. Но вы можете одновременно обрабатывать несколько строк, чтобы писать несколько столбцов и заполнять все строки кеша. Вам понадобятся только три цикла.
Или делайте это наоборот и читайте в столбцах при линейной записи.
Ответ 6
С большой матрицей, возможно, с большой разреженной матрицей, может возникнуть идея разложить ее на более мелкие кешированные части (Say, 4x4 sub matrices). Вы также можете пометить подматрицы как личность, которые помогут вам в создании оптимизированных путей кода.