Как отобразить изображение на MKOverlayView?

ОБНОВЛЕНИЕ:

Изображения, которые проецируются на MKMapView с использованием MKOverlayView, используют прогноз Меркатора, а изображение, которое я использую в качестве входных данных, использует проекцию WGS84, Есть ли способ конвертировать входное изображение в правый проектор WGS84 → Mercator, без разбивки изображения и его можно сделать "на лету"?

Обычно вы можете преобразовать изображение в правую проекцию с помощью программы gdal2tiles. Однако входные данные изменяются каждые 15 минут, поэтому изображение нужно преобразовывать каждые 15 минут. Поэтому преобразование должно выполняться "на лету". Я также хочу, чтобы плитка выполнялась Mapkit, а не сама, используя gdal2tiles или структуру GDAL.

UPDATE END

В настоящее время я работаю над проектом, который отображает радиолокатор осадков в некоторых частях мира. Радарное изображение предоставляется EUMETSAT, они предлагают файл KML, который можно загрузить в Google Earth или Google Maps. Если я загружаю KML файл в Карты Google, он отображается отлично, но если я рисую изображение с помощью MKOverlayView на MKMapView, изображение немного.

Например, с левой стороны Google Maps и с правой стороны одно и то же изображение отображается в MKMapView.

alt text

alt text

Поверхность, которую покрывает изображение, можно посмотреть на Картах Google, спутником, который используется для изображения, является "Meteosat 0 Degree", спутник.

Поверхность, на которой оба изображения покрыты, имеет одинаковый размер, это LatLonBox из файла KML, где указано, что верхняя, нижняя, правая и левая стороны ограничивающего прямоугольника для наложения на землю выравниваются.

  <LatLonBox id="GE_MET0D_VP-MPE-latlonbox">
        <north>57.4922</north>
        <south>-57.4922</south>
        <east>57.4922</east>
        <west>-57.4922</west>
        <rotation>0</rotation>
  </LatLonBox>

Я создаю новый пользовательский объект MKOverlay под названием RadarOverlay с этими параметрами,

[[RadarOverlay alloc] initWithImageData:[[self.currentRadarData objectAtIndex:0] valueForKey:@"Image"] withLowerLeftCoordinate:CLLocationCoordinate2DMake(-57.4922, -57.4922) withUpperRightCoordinate:CLLocationCoordinate2DMake(57.4922, 57.4922)];

Реализация пользовательского объекта MKOverlay; RadarOverlay

- (id) initWithImageData:(NSData*) imageData withLowerLeftCoordinate:(CLLocationCoordinate2D)lowerLeftCoordinate withUpperRightCoordinate:(CLLocationCoordinate2D)upperRightCoordinate
{
     self.radarData = imageData;

     MKMapPoint lowerLeft = MKMapPointForCoordinate(lowerLeftCoordinate);
     MKMapPoint upperRight = MKMapPointForCoordinate(upperRightCoordinate);

     mapRect = MKMapRectMake(lowerLeft.x, upperRight.y, upperRight.x - lowerLeft.x, lowerLeft.y - upperRight.y);

     return self;
}

- (CLLocationCoordinate2D)coordinate
{
     return MKCoordinateForMapPoint(MKMapPointMake(MKMapRectGetMidX(mapRect), MKMapRectGetMidY(mapRect)));
}

- (MKMapRect)boundingMapRect
{
     return mapRect;
}

Реализация пользовательского MKOverlayView, RadarOverlayView

- (void)drawMapRect:(MKMapRect)mapRect zoomScale:(MKZoomScale)zoomScale inContext:(CGContextRef)context
{
    RadarOverlay* radarOverlay = (RadarOverlay*) self.overlay;

    UIImage *image          = [[UIImage alloc] initWithData:radarOverlay.radarData];

    CGImageRef imageReference = image.CGImage;

    MKMapRect theMapRect    = [self.overlay boundingMapRect];
   CGRect theRect           = [self rectForMapRect:theMapRect];
    CGRect clipRect     = [self rectForMapRect:mapRect];

    NSUserDefaults *preferences = [NSUserDefaults standardUserDefaults];
    CGContextSetAlpha(context, [preferences floatForKey:@"RadarTransparency"]);

    CGContextAddRect(context, clipRect);
    CGContextClip(context);

    CGContextDrawImage(context, theRect, imageReference);

    [image release]; 
}

Когда я загружаю изображение, я переворачиваю изображение, чтобы его можно было легко рисовать в MKOverlayView

size_t width    = (CGImageGetWidth(imageReference) / self.scaleFactor);
size_t height   = (CGImageGetHeight(imageReference) / self.scaleFactor);

// Calculate colorspace for the specified image
CGColorSpaceRef imageColorSpace = CGImageGetColorSpace(imageReference);

// Allocate and clear memory for the data of the image
unsigned char *imageData = (unsigned char*) malloc(height * width * 4);
memset(imageData, 0, height * width * 4);

// Define the rect for the image
CGRect imageRect;
if(image.imageOrientation==UIImageOrientationUp || image.imageOrientation==UIImageOrientationDown) 
    imageRect = CGRectMake(0, 0, width, height); 
else 
    imageRect = CGRectMake(0, 0, height, width); 

// Create the imagecontext by defining the colorspace and the address of the location to store the data
CGContextRef imageContext = CGBitmapContextCreate(imageData, width, height, 8, width * 4, imageColorSpace, kCGImageAlphaPremultipliedLast);

CGContextSaveGState(imageContext);

// Scale the image to the opposite orientation so it can be easylier drawn with CGContectDrawImage
CGContextTranslateCTM(imageContext, 0, height);
CGContextScaleCTM(imageContext, 1.0, -1.0);

if(image.imageOrientation==UIImageOrientationLeft) 
{
    CGContextRotateCTM(imageContext, M_PI / 2);
    CGContextTranslateCTM(imageContext, 0, -width);
}
else if(image.imageOrientation==UIImageOrientationRight) 
{
    CGContextRotateCTM(imageContext, - M_PI / 2);
    CGContextTranslateCTM(imageContext, -height, 0);
} 
else if(image.imageOrientation==UIImageOrientationDown) 
{
    CGContextTranslateCTM(imageContext, width, height);
    CGContextRotateCTM(imageContext, M_PI);
}

// Draw the image in the context
CGContextDrawImage(imageContext, imageRect, imageReference);
CGContextRestoreGState(imageContext);

После того, как я перевернул изображение, я манипулирую его, а затем сохранил его в памяти как объект NSData.

Похоже, что изображение растянулось, но оно выглядит в центре изображения, которое находится на экваторе.

Ответы

Ответ 1

Вы уже видели "сеанс 127 - настройка карт с надстройками" из видео WWDC 2010? В одном из примеров приводятся данные землетрясений, которые дают землетрясение на площади 0,5 на 0,5 градуса и сопоставляют их. Ваши данные радара похожи, на основе квадратов. В образце кода есть полное приложение HazardMaps, которое берет эти данные и создает наложение с использованием MKMapPoints. Если вы еще не видели это видео, я думаю, это даст вам много полезной информации. Он также говорит о переходе на проекцию Меркатора.

Еще одна вещь, которую нужно проверить, - это то, что система координат (данных) содержит данные из EUMETSAT. В Google Maps используется система под названием WGS-84, который является общим стандартом. Но есть много других стандартов, которые могут дать более точные позиции в разных частях мира. Если вы используете широту и долготу из другого стандарта в Картах Google, все ваши очки будут отключены на определенную сумму. Смещение не согласовано, оно изменяется при перемещении по карте. Возможно, Google Maps хорошо разбирается в данных и конвертируется в WGS-84 "на лету".

Вы можете узнать более подробную информацию, посмотрев на KML. Я посмотрел, но не смог найти финальный KML с прямоугольниками. Возможно, он дает информацию о том, какую систему координат он использует в метаданных.

Ответ 2

Я не уверен, повлияет ли это на проблему масштабирования, но в вашем коде OverlayView вы рисуете все изображение для каждого maptile.

Вы пробовали только рисовать часть изображения, которое видно в mapRect?

Когда у меня были проблемы с MKOverlayViews, мне было полезно нарисовать прямоугольник наложения (self.overlay.boundingRect) и mapRect (передано в drawMapRect). Хотя, я не уверен, что рисование mapRect было бы полезно в вашей ситуации.

Во всяком случае, heres функция, которую я использую, чтобы нарисовать прямоугольник, если вы хотите попробовать его

-(void)drawRect:(MKMapRect)rect inContext:(CGContextRef)context withLineWidth:(float)lineWidth andColor:(CGColorRef)color
{

    double maxx = MKMapRectGetMaxX(rect);
    double minx = MKMapRectGetMinX(rect);
    double maxy = MKMapRectGetMaxY(rect);
    double miny = MKMapRectGetMinY(rect);

    CGPoint tr = [self pointForMapPoint:(MKMapPoint) {maxx, maxy}];
    CGPoint br = [self pointForMapPoint:(MKMapPoint) {maxx, miny}];
    CGPoint bl = [self pointForMapPoint:(MKMapPoint) {minx, miny}];
    CGPoint tl = [self pointForMapPoint:(MKMapPoint) {minx, maxy}];

    CGMutablePathRef cgPath = CGPathCreateMutable();
    CGPathMoveToPoint(cgPath, NULL, tr.x, tr.y);
    CGPathAddLineToPoint(cgPath, NULL, br.x, br.y);
    CGPathAddLineToPoint(cgPath, NULL, bl.x, bl.y);
    CGPathAddLineToPoint(cgPath, NULL, tl.x, tl.y);
    CGPathAddLineToPoint(cgPath, NULL, tr.x, tr.y); 

    CGContextSaveGState(context);
    CGContextAddPath(context, cgPath);
    CGContextSetStrokeColorWithColor(context, color);
    CGContextSetLineJoin(context, kCGLineJoinRound);
    CGContextSetLineCap(context, kCGLineCapRound);
    CGContextSetLineWidth(context, lineWidth);
    CGContextStrokePath(context);
    CGPathRelease(cgPath);  
    CGContextRestoreGState(context);
}

Ответ 3

Я предполагаю, что Google Maps растягивает изображение нелинейно, чтобы компенсировать проекцию карты и что код кода /Apple не является.

Одним из возможных решений было бы разделить изображение наложения на более мелкие прямоугольники и вызвать MKMapPointForCoordinate() отдельно для каждого прямоугольника. Тогда данные будут намного ближе к правильному.

Ответ 4

Данные WGS-84 используют проекцию UTM, MKMapView использует меркатор. Вы используете разные методы для сопоставления 3D-объекта с 2D-поверхностью, поэтому он не дает одинаковых результатов.

Вам нужно будет спуститься в GDAL и переместить входящее изображение в другую проекцию. Дайте мне знать, если вы это поняли, потому что это нелегко.

Ответ 5

Ваше изображение/оверлей скорее всего не будет пропорциональным (т.е. растянутым). Я видел такие вещи в своем приложении, где центр зрения правильный, но когда вы уходите от экватора к полюсу (сверху и снизу экрана), карта/наложение все больше искажается.

Очевидно, вы масштабируете свое изображение с помощью scaleFactor. Я бы посмотрел на это для начала.

size_t width    = (CGImageGetWidth(imageReference) / self.scaleFactor);
size_t height   = (CGImageGetHeight(imageReference) / self.scaleFactor);

Еще один хороший способ проверить ваш код, чтобы выяснить, является ли масштабирование виновником, - это масштабирование вашего MKMapView до размера наложенного изображения. Оставьте накладываемое изображение отдельно, и если оно больше не искажено, вы знаете, что это проблема.

Ответ 6

У Apple есть пример приложения из WWDC, который анализирует KML и отображает его на карте. Если вы платный разработчик, вы можете получить к нему доступ на странице WWDC видео в iTunes. Я рекомендую использовать их парсер.