Как я могу улучшить обнаружение лапы?

После моего предыдущего вопроса о поиске пальцев в каждой лапе, я начал загружать другие измерения, чтобы увидеть, как он будет задерживаться. К сожалению, я быстро столкнулся с проблемой с одним из предыдущих шагов: распознавание лап.

Вы видите, мое доказательство концепции в основном принимало максимальное давление каждого датчика с течением времени и начинало искать сумму каждой строки, пока не найдет на это!= 0.0. Затем он делает то же самое для столбцов и как только он найдет более двух строк с нулевыми значениями. Он сохраняет минимальные и максимальные значения строк и столбцов для некоторого индекса.

alt text

Как вы можете видеть на рисунке, в большинстве случаев это работает очень хорошо. Тем не менее, для этого подхода есть много недостатков (кроме примитивного):

  • Люди могут иметь "полые ноги", что означает, что в пределах самого участка есть несколько пустых строк. Поскольку я боялся, что это может произойти и с (большими) собаками, я ждал по крайней мере 2 или 3 пустых рядов, прежде чем отрезать лапу.

    Это создает проблему, если другой контакт сделан в другом столбце, прежде чем он достигнет нескольких пустых строк, тем самым расширяя область. Я полагаю, что могу сравнить столбцы и посмотреть, превышают ли они определенное значение, они должны быть отдельными лапами.

  • Проблема ухудшается, когда собака очень маленькая или идет более высоко. Что происходит, так это то, что передние лапы еще соприкасаются, а задние лапы только начинают контактировать в той же области, что и передняя лапа!

    С помощью моего простого script он не сможет разделить эти два, потому что он должен будет определить, какие кадры этой области принадлежат этой лапе, в то время как в настоящее время мне нужно будет смотреть только на максимальные значения все кадры.

Примеры того, где он начинает идти не так:

alt textalt text

Итак, теперь я ищу лучший способ распознавания и разделения лап (после чего я пойду на вопрос о том, какая именно лапа!).

Update:

Я старался получить ответ Джо (удивительный!), но у меня возникают трудности с извлечением фактических данных лапы из моих файлов.

alt text

Кодированные_палы показывают мне все разные лапы при приложении к максимальному изображению давления (см. выше). Тем не менее, решение проходит через каждый кадр (чтобы отделить перекрывающиеся лапы) и устанавливает четыре атрибута Rectangle, такие как координаты или высота/ширина.

Я не могу понять, как взять эти атрибуты и сохранить их в некоторой переменной, которую я могу применить к данным измерений. Так как мне нужно знать каждую лапу, каково ее расположение во время рамок и соединяйте это с той лапой (передняя/задняя, ​​левая/правая).

Итак, как я могу использовать атрибуты Rectangles для извлечения этих значений для каждой лапы?

У меня есть измерения, которые я использовал в настройке вопроса в моей открытой папке Dropbox (пример 1, пример 2, пример 3). Для всех желающих я также создал блог, чтобы вы были в курсе: -)

Ответы

Ответ 1

Если вы просто хотите (полу) смежных областей, в Python уже есть простая реализация: SciPy ndimage.morphology. Это довольно распространенная морфология изображений.


В принципе, у вас есть 5 шагов:

def find_paws(data, smooth_radius=5, threshold=0.0001):
    data = sp.ndimage.uniform_filter(data, smooth_radius)
    thresh = data > threshold
    filled = sp.ndimage.morphology.binary_fill_holes(thresh)
    coded_paws, num_paws = sp.ndimage.label(filled)
    data_slices = sp.ndimage.find_objects(coded_paws)
    return object_slices
  • Немного размять входные данные, чтобы убедиться, что лапы имеют непрерывный след. (Было бы более эффективно использовать большее ядро ​​(structure kwarg для различных функций scipy.ndimage.morphology), но по какой-то причине это не работает должным образом...)

  • Пороговое значение массива, чтобы иметь булевский массив мест, где давление превышает некоторое пороговое значение (т.е. thresh = data > value)

  • Заполните все внутренние отверстия, чтобы у вас были более чистые области (filled = sp.ndimage.morphology.binary_fill_holes(thresh))

  • Найдите отдельные смежные области (coded_paws, num_paws = sp.ndimage.label(filled)). Это возвращает массив с областями, закодированными по числу (каждая область является смежной областью уникального целого числа (от 1 до числа лап) с нулями всюду)).

  • Изолируйте смежные области с помощью data_slices = sp.ndimage.find_objects(coded_paws). Это возвращает список кортежей объектов slice, поэтому вы можете получить область данных для каждой лапы с помощью [data[x] for x in data_slices]. Вместо этого мы нарисуем прямоугольник на основе этих фрагментов, который требует немного больше работы.


В приведенной ниже анимации показаны примеры данных "Перекрывающие лапы" и "Группированные лапы". Этот метод работает отлично. (И для чего бы это ни стоило, это работает намного гладко, чем изображения GIF ниже на моей машине, поэтому алгоритм обнаружения лапы довольно быстрый...)

Overlapping PawsGrouped Paws


Вот полный пример (теперь с гораздо более подробными объяснениями). Подавляющее большинство из них читает ввод и делает анимацию. Фактическое обнаружение лапы составляет всего 5 строк кода.

import numpy as np
import scipy as sp
import scipy.ndimage

import matplotlib.pyplot as plt
from matplotlib.patches import Rectangle

def animate(input_filename):
    """Detects paws and animates the position and raw data of each frame
    in the input file"""
    # With matplotlib, it much, much faster to just update the properties
    # of a display object than it is to create a new one, so we'll just update
    # the data and position of the same objects throughout this animation...

    infile = paw_file(input_filename)

    # Since we're making an animation with matplotlib, we need 
    # ion() instead of show()...
    plt.ion()
    fig = plt.figure()
    ax = fig.add_subplot(111)
    fig.suptitle(input_filename)

    # Make an image based on the first frame that we'll update later
    # (The first frame is never actually displayed)
    im = ax.imshow(infile.next()[1])

    # Make 4 rectangles that we can later move to the position of each paw
    rects = [Rectangle((0,0), 1,1, fc='none', ec='red') for i in range(4)]
    [ax.add_patch(rect) for rect in rects]

    title = ax.set_title('Time 0.0 ms')

    # Process and display each frame
    for time, frame in infile:
        paw_slices = find_paws(frame)

        # Hide any rectangles that might be visible
        [rect.set_visible(False) for rect in rects]

        # Set the position and size of a rectangle for each paw and display it
        for slice, rect in zip(paw_slices, rects):
            dy, dx = slice
            rect.set_xy((dx.start, dy.start))
            rect.set_width(dx.stop - dx.start + 1)
            rect.set_height(dy.stop - dy.start + 1)
            rect.set_visible(True)

        # Update the image data and title of the plot
        title.set_text('Time %0.2f ms' % time)
        im.set_data(frame)
        im.set_clim([frame.min(), frame.max()])
        fig.canvas.draw()

def find_paws(data, smooth_radius=5, threshold=0.0001):
    """Detects and isolates contiguous regions in the input array"""
    # Blur the input data a bit so the paws have a continous footprint 
    data = sp.ndimage.uniform_filter(data, smooth_radius)
    # Threshold the blurred data (this needs to be a bit > 0 due to the blur)
    thresh = data > threshold
    # Fill any interior holes in the paws to get cleaner regions...
    filled = sp.ndimage.morphology.binary_fill_holes(thresh)
    # Label each contiguous paw
    coded_paws, num_paws = sp.ndimage.label(filled)
    # Isolate the extent of each paw
    data_slices = sp.ndimage.find_objects(coded_paws)
    return data_slices

def paw_file(filename):
    """Returns a iterator that yields the time and data in each frame
    The infile is an ascii file of timesteps formatted similar to this:

    Frame 0 (0.00 ms)
    0.0 0.0 0.0
    0.0 0.0 0.0

    Frame 1 (0.53 ms)
    0.0 0.0 0.0
    0.0 0.0 0.0
    ...
    """
    with open(filename) as infile:
        while True:
            try:
                time, data = read_frame(infile)
                yield time, data
            except StopIteration:
                break

def read_frame(infile):
    """Reads a frame from the infile."""
    frame_header = infile.next().strip().split()
    time = float(frame_header[-2][1:])
    data = []
    while True:
        line = infile.next().strip().split()
        if line == []:
            break
        data.append(line)
    return time, np.array(data, dtype=np.float)

if __name__ == '__main__':
    animate('Overlapping paws.bin')
    animate('Grouped up paws.bin')
    animate('Normal measurement.bin')

Обновление:. Что касается определения того, какая лапа находится в контакте с датчиком в какое время, самым простым решением является просто сделать тот же анализ, но использовать сразу все данные. (т.е. складывать вход в трехмерный массив и работать с ним вместо отдельных временных рамок). Поскольку функции niimage SciPy предназначены для работы с n-мерными массивами, нам не нужно изменять исходную функцию поиска лапы на всех.

# This uses functions (and imports) in the previous code example!!
def paw_regions(infile):
    # Read in and stack all data together into a 3D array
    data, time = [], []
    for t, frame in paw_file(infile):
        time.append(t)
        data.append(frame)
    data = np.dstack(data)
    time = np.asarray(time)

    # Find and label the paw impacts
    data_slices, coded_paws = find_paws(data, smooth_radius=4)

    # Sort by time of initial paw impact... This way we can determine which
    # paws are which relative to the first paw with a simple modulo 4.
    # (Assuming a 4-legged dog, where all 4 paws contacted the sensor)
    data_slices.sort(key=lambda dat_slice: dat_slice[2].start)

    # Plot up a simple analysis
    fig = plt.figure()
    ax1 = fig.add_subplot(2,1,1)
    annotate_paw_prints(time, data, data_slices, ax=ax1)
    ax2 = fig.add_subplot(2,1,2)
    plot_paw_impacts(time, data_slices, ax=ax2)
    fig.suptitle(infile)

def plot_paw_impacts(time, data_slices, ax=None):
    if ax is None:
        ax = plt.gca()

    # Group impacts by paw...
    for i, dat_slice in enumerate(data_slices):
        dx, dy, dt = dat_slice
        paw = i%4 + 1
        # Draw a bar over the time interval where each paw is in contact
        ax.barh(bottom=paw, width=time[dt].ptp(), height=0.2, 
                left=time[dt].min(), align='center', color='red')
    ax.set_yticks(range(1, 5))
    ax.set_yticklabels(['Paw 1', 'Paw 2', 'Paw 3', 'Paw 4'])
    ax.set_xlabel('Time (ms) Since Beginning of Experiment')
    ax.yaxis.grid(True)
    ax.set_title('Periods of Paw Contact')

def annotate_paw_prints(time, data, data_slices, ax=None):
    if ax is None:
        ax = plt.gca()

    # Display all paw impacts (sum over time)
    ax.imshow(data.sum(axis=2).T)

    # Annotate each impact with which paw it is
    # (Relative to the first paw to hit the sensor)
    x, y = [], []
    for i, region in enumerate(data_slices):
        dx, dy, dz = region
        # Get x,y center of slice...
        x0 = 0.5 * (dx.start + dx.stop)
        y0 = 0.5 * (dy.start + dy.stop)
        x.append(x0); y.append(y0)

        # Annotate the paw impacts         
        ax.annotate('Paw %i' % (i%4 +1), (x0, y0),  
            color='red', ha='center', va='bottom')

    # Plot line connecting paw impacts
    ax.plot(x,y, '-wo')
    ax.axis('image')
    ax.set_title('Order of Steps')

alt text


alt text


alt text

Ответ 2

Я не эксперт в обнаружении изображений, и я не знаю Python, но я дам ему удар...

Чтобы обнаружить отдельные лапы, вы должны сначала выбрать все только при давлении, превышающем некоторый небольшой порог, практически не имеющем давления. Каждый пиксель/точка, которая выше этого, должна быть "отмечена". Затем каждый пиксель, смежный со всеми "отмеченными" пикселями, становится помеченным, и этот процесс повторяется несколько раз. Массы, которые полностью связаны, будут сформированы, поэтому у вас есть разные объекты. Затем каждый "объект" имеет минимальное и максимальное значения x и y, поэтому ограничивающие поля могут быть аккуратно упакованы вокруг них.

псевдокод:

(MARK) ALL PIXELS ABOVE (0.5)

(MARK) ALL PIXELS (ADJACENT) TO (MARK) PIXELS

REPEAT (STEP 2) (5) TIMES

SEPARATE EACH TOTALLY CONNECTED MASS INTO A SINGLE OBJECT

MARK THE EDGES OF EACH OBJECT, AND CUT APART TO FORM SLICES.

Это должно сделать это.

Ответ 3

Примечание. Я говорю пиксель, но это могут быть области, использующие среднее значение пикселей. Оптимизация - еще одна проблема...

Похоже, вам нужно проанализировать функцию (давление во времени) для каждого пикселя и определить где функция поворачивается (при изменении > X в другом направлении считается поворотным для встречных ошибок).

Если вы знаете, в каких кадрах он поворачивается, вы узнаете, кадр, где давление было самым трудным, и вы будете знать, где это было наименее сложно между двумя лапами. В теории вы тогда узнаете два кадра, где лапы нажимали наиболее сильно и могли рассчитать среднее значение этих интервалов.

после чего я перейду к решению вопроса о том, какая лапа это!

Это та же самая поездка, что и раньше, зная, когда каждая лапа применяет наибольшее давление, вы можете решить.