實驗須要提取數據的空間信息,因此要對光譜進行降維,使用主成分分析算法,樣例代碼備份以下python
# -*- coding: utf-8 -*- """ Created on Mon Feb 18 10:35:43 2019 @author: admin """ import numpy as np from scipy.io import loadmat #import spectral from sklearn.decomposition import PCA input_hsi = loadmat('dataset/huston/houston15.mat')['data'] input_lidar=loadmat('dataset/huston/houston_Lidar15.mat')['data'] train_label = loadmat('dataset/huston/houston15_mask_train.mat')['mask_train'] test_label=loadmat('dataset/huston/houston15_mask_test.mat')['mask_test'] #高光譜降維處理 array_x1=input_hsi.reshape(np.prod(input_hsi.shape[:2]),np.prod(input_hsi.shape[2:])) pca=PCA(n_components=30) array_x2=pca.fit_transform(array_x1) print(array_x2.shape) pca_hsi=array_x2.reshape(input_hsi.shape[0],input_hsi.shape[1],array_x2.shape[1]) print('hsi shape:',input_hsi.shape) print('pca hsi shape:',pca_hsi.shape) print('lidar shape:',input_lidar.shape)
實驗數據是houston高光譜數據和lidar數據,數據的原始維度和降維後的維度以下圖所示算法
在進行pac降維以前須要先對實驗reshape,由於pca只支持二維數據降維,將前兩維(平面)reshape成列向量就變成了(664845,30),降維結束後再reshape回去,注意reshape時候第三個維度已經不是原來的144維了,因此在reshape回去時這樣寫是會報錯的。input_hsi.shape[2]是原始數據的第三個維度爲144,正確數值是30,即降維以後的維度,也就是array_x2.shape[1]3d
array_x3=array_x2.reshape(input_hsi.shape[0],input_hsi.shape[1],input_hsi.shape[2])