0
我的應用程序當前使用帶自定義覆蓋圖的相機拍攝並保存圖片。收集相機拍攝時的GPS位置和指南針方向?
理想情況下,我想在照片拍攝的時間收集以下3個PARAMATERS還有:
- 精確的GPS定位
- 羅盤方向
- 手機傾斜
我主要關注獲取物品1 & 2.關於如何做到這一點的任何想法?
我的應用程序當前使用帶自定義覆蓋圖的相機拍攝並保存圖片。收集相機拍攝時的GPS位置和指南針方向?
理想情況下,我想在照片拍攝的時間收集以下3個PARAMATERS還有:
我主要關注獲取物品1 & 2.關於如何做到這一點的任何想法?
幾個變量,你應該在viewDidLoad方法
Manager = [[CLLocationManager alloc] init];
Manager.delegate = self;
Manager.desiredAccuracy = kCLLocationAccuracyBest;
Manager.distanceFilter = 1.0;
[Manager startUpdatingLocation];
[Manager startUpdatingHeading];
這些委託方法在.m文件您的viewController
float locLat; //for latitude
float locLon; //for longitude
float direction; // for angle in radian
CLLocationManager *Manager;
的.h文件中聲明時便會要求你在哪裏得到的位置更新
-(void)locationManager:(CLLocationManager *)manager didUpdateToLocation:(CLLocation *)newLocation fromLocation:(CLLocation *)oldLocation
{
userlat = newLocation.coordinate.latitude;
userlon = newLocation.coordinate.longitude;
}
這會給你指南針值更新
- (void)locationManager:(CLLocationManager *)manager didUpdateHeading:(CLHeading *)newHeading
{
float direction = newHeading.trueHeading;
}
您可以在imagepicker的didFinishPickingMediaWithInfo委託方法中使用這三個值。
'CoreLocation'和'CoreMotion' – JustSid 2012-07-21 02:38:37
任何關於如何在已經使用自定義疊加層調用UIImagePickerController後實現這些的指導? – Rohan 2012-07-21 03:13:18