SpringBoot + Mybatis + Druid + PageHelper 實現多數據源分頁

 

前言

本篇文章主要講述的是SpringBoot整合MybatisDruidPageHelper 並實現多數據源和分頁。其中SpringBoot整合Mybatis這塊,在以前的的一篇文章中已經講述了,這裏就不過多說明了。重點是講述在多數據源下的如何配置使用Druid和PageHelper 。css

Druid介紹和使用

在使用Druid以前,先來簡單的瞭解下Druid。html

Druid是一個數據庫鏈接池。Druid能夠說是目前最好的數據庫鏈接池!因其優秀的功能、性能和擴展性方面,深受開發人員的青睞。Druid已經在阿里巴巴部署了超過600個應用,通過一年多生產環境大規模部署的嚴苛考驗。Druid是阿里巴巴開發的號稱爲監控而生的數據庫鏈接池!java

同時Druid不只僅是一個數據庫鏈接池,Druid 核心主要包括三部分:mysql

  • 基於Filter-Chain模式的插件體系。git

  • DruidDataSource 高效可管理的數據庫鏈接池。github

  • SQLParserweb

Druid的主要功能以下:spring

  1. 是一個高效、功能強大、可擴展性好的數據庫鏈接池。sql

  2. 能夠監控數據庫訪問性能。數據庫

  3. 數據庫密碼加密

  4. 得到SQL執行日誌

  5. 擴展JDBC

介紹方面這塊就再也不多說,具體的能夠看官方文檔。那麼開始介紹Druid如何使用。

首先是Maven依賴,只須要添加druid這一個jar就好了。

<dependency>
    <groupId>com.alibaba</groupId>
    <artifactId>druid</artifactId>
    <version>1.1.8</version>
</dependency>

配置方面,主要的只須要在application.propertiesapplication.yml添加以下就能夠了。說明:由於這裏我是用來兩個數據源,因此稍微有些不一樣而已。Druid 配置的說明在下面中已經說的很詳細了,這裏我就不在說明了。

## 默認的數據源
master.datasource.url=jdbc:mysql://localhost:3306/springBoot?useUnicode=true&characterEncoding=utf8&allowMultiQueries=true
master.datasource.username=root
master.datasource.password=123456
master.datasource.driverClassName=com.mysql.jdbc.Driver

## 另外一個的數據源
cluster.datasource.url=jdbc:mysql://localhost:3306/springBoot_test?useUnicode=true&characterEncoding=utf8
cluster.datasource.username=root
cluster.datasource.password=123456
cluster.datasource.driverClassName=com.mysql.jdbc.Driver

# 鏈接池的配置信息  
# 初始化大小,最小,最大  
spring.datasource.type=com.alibaba.druid.pool.DruidDataSource
spring.datasource.initialSize=5  
spring.datasource.minIdle=5  
spring.datasource.maxActive=20  
# 配置獲取鏈接等待超時的時間  
spring.datasource.maxWait=60000  
# 配置間隔多久才進行一次檢測,檢測須要關閉的空閒鏈接,單位是毫秒  
spring.datasource.timeBetweenEvictionRunsMillis=60000  
# 配置一個鏈接在池中最小生存的時間,單位是毫秒  
spring.datasource.minEvictableIdleTimeMillis=300000  
spring.datasource.validationQuery=SELECT 1 FROM DUAL  
spring.datasource.testWhileIdle=true  
spring.datasource.testOnBorrow=false  
spring.datasource.testOnReturn=false  
# 打開PSCache,而且指定每一個鏈接上PSCache的大小  
spring.datasource.poolPreparedStatements=true  
spring.datasource.maxPoolPreparedStatementPerConnectionSize=20  
# 配置監控統計攔截的filters,去掉後監控界面sql沒法統計,'wall'用於防火牆  
spring.datasource.filters=stat,wall,log4j  
# 經過connectProperties屬性來打開mergeSql功能;慢SQL記錄  
spring.datasource.connectionProperties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000  

成功添加了配置文件以後,咱們再來編寫Druid相關的類。首先是MasterDataSourceConfig.java這個類,這個是默認的數據源配置類。

@Configuration
@MapperScan(basePackages = MasterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "masterSqlSessionFactory")
public class MasterDataSourceConfig {

    static final String PACKAGE = "com.pancm.dao.master";
    static final String MAPPER_LOCATION = "classpath:mapper/master/*.xml";

    @Value("${master.datasource.url}")  
    private String url;  
      
    @Value("${master.datasource.username}")  
    private String username;  
      
    @Value("${master.datasource.password}")  
    private String password;  
      
    @Value("${master.datasource.driverClassName}")  
    private String driverClassName;  
      
    
    
    
    @Value("${spring.datasource.initialSize}")  
    private int initialSize;  
      
    @Value("${spring.datasource.minIdle}")  
    private int minIdle;  
      
    @Value("${spring.datasource.maxActive}")  
    private int maxActive;  
      
    @Value("${spring.datasource.maxWait}")  
    private int maxWait;  
      
    @Value("${spring.datasource.timeBetweenEvictionRunsMillis}")  
    private int timeBetweenEvictionRunsMillis;  
      
    @Value("${spring.datasource.minEvictableIdleTimeMillis}")  
    private int minEvictableIdleTimeMillis;  
      
    @Value("${spring.datasource.validationQuery}")  
    private String validationQuery;  
      
    @Value("${spring.datasource.testWhileIdle}")  
    private boolean testWhileIdle;  
      
    @Value("${spring.datasource.testOnBorrow}")  
    private boolean testOnBorrow;  
      
    @Value("${spring.datasource.testOnReturn}")  
    private boolean testOnReturn;  
      
    @Value("${spring.datasource.poolPreparedStatements}")  
    private boolean poolPreparedStatements;  
      
    @Value("${spring.datasource.maxPoolPreparedStatementPerConnectionSize}")  
    private int maxPoolPreparedStatementPerConnectionSize;  
      
    @Value("${spring.datasource.filters}")  
    private String filters;  
      
    @Value("{spring.datasource.connectionProperties}")  
    private String connectionProperties;  
    
    
    @Bean(name = "masterDataSource")
    @Primary 
    public DataSource masterDataSource() {
        DruidDataSource dataSource = new DruidDataSource();
        dataSource.setUrl(url);  
        dataSource.setUsername(username);  
        dataSource.setPassword(password);  
        dataSource.setDriverClassName(driverClassName);  
          
        //具體配置 
        dataSource.setInitialSize(initialSize);  
        dataSource.setMinIdle(minIdle);  
        dataSource.setMaxActive(maxActive);  
        dataSource.setMaxWait(maxWait);  
        dataSource.setTimeBetweenEvictionRunsMillis(timeBetweenEvictionRunsMillis);  
        dataSource.setMinEvictableIdleTimeMillis(minEvictableIdleTimeMillis);  
        dataSource.setValidationQuery(validationQuery);  
        dataSource.setTestWhileIdle(testWhileIdle);  
        dataSource.setTestOnBorrow(testOnBorrow);  
        dataSource.setTestOnReturn(testOnReturn);  
        dataSource.setPoolPreparedStatements(poolPreparedStatements);  
        dataSource.setMaxPoolPreparedStatementPerConnectionSize(maxPoolPreparedStatementPerConnectionSize);  
        try {  
            dataSource.setFilters(filters);  
        } catch (SQLException e) { 
         e.printStackTrace();
        }  
        dataSource.setConnectionProperties(connectionProperties);  
        return dataSource;
    }

    @Bean(name = "masterTransactionManager")
    @Primary
    public DataSourceTransactionManager masterTransactionManager() {
        return new DataSourceTransactionManager(masterDataSource());
    }

    @Bean(name = "masterSqlSessionFactory")
    @Primary
    public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)
            throws Exception {
        final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
        sessionFactory.setDataSource(masterDataSource);
        sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
                .getResources(MasterDataSourceConfig.MAPPER_LOCATION));
        return sessionFactory.getObject();
    }
}

其中這兩個註解說明下:

  • @Primary :標誌這個 Bean 若是在多個同類 Bean 候選時,該 Bean 優先被考慮。多數據源配置的時候注意,必需要有一個主數據源,用 @Primary 標誌該 Bean。

  • @MapperScan:掃描 Mapper 接口並容器管理。

須要注意的是sqlSessionFactoryRef 表示定義一個惟一 SqlSessionFactory 實例。

上面的配置完以後,就能夠將Druid做爲鏈接池使用了。可是Druid並不簡簡單單的是個鏈接池,它也能夠說是一個監控應用,它自帶了web監控界面,能夠很清晰的看到SQL相關信息。在SpringBoot中運用Druid的監控做用,只須要編寫StatViewServletWebStatFilter類,實現註冊服務和過濾規則。這裏咱們能夠將這兩個寫在一塊兒,使用@Configuration@Bean。爲了方便理解,相關的配置說明也寫在代碼中了,這裏就再也不過多贅述了。代碼以下:

@Configuration
public class DruidConfiguration {

 @Bean
 public ServletRegistrationBean druidStatViewServle() {
  //註冊服務
  ServletRegistrationBean servletRegistrationBean = new ServletRegistrationBean(
    new StatViewServlet(), "/druid/*");
  // 白名單(爲空表示,全部的均可以訪問,多個IP的時候用逗號隔開)
  servletRegistrationBean.addInitParameter("allow", "127.0.0.1");
  // IP黑名單 (存在共同時,deny優先於allow) 
  servletRegistrationBean.addInitParameter("deny", "127.0.0.2");
  // 設置登陸的用戶名和密碼
  servletRegistrationBean.addInitParameter("loginUsername", "pancm");
  servletRegistrationBean.addInitParameter("loginPassword", "123456");
  // 是否可以重置數據.
  servletRegistrationBean.addInitParameter("resetEnable", "false");
  return servletRegistrationBean;
 }

 @Bean
 public FilterRegistrationBean druidStatFilter() {
  FilterRegistrationBean filterRegistrationBean = new FilterRegistrationBean(
    new WebStatFilter());
  // 添加過濾規則
  filterRegistrationBean.addUrlPatterns("/*");
  // 添加不須要忽略的格式信息
  filterRegistrationBean.addInitParameter("exclusions",
    "*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*");
  System.out.println("druid初始化成功!");
  return filterRegistrationBean;

 }
}

編寫完以後,啓動程序,在瀏覽器輸入:http://127.0.0.1:8084/druid/index.html ,而後輸入設置的用戶名和密碼,即可以訪問Web界面了。

多數據源配置

在進行多數據源配置以前,先分別在springBootspringBoot_testmysql數據庫中執行以下腳本。

-- springBoot庫的腳本

CREATE TABLE `t_user` (
  `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '自增id',
  `name` varchar(10) DEFAULT NULL COMMENT '姓名',
  `age` int(2) DEFAULT NULL COMMENT '年齡',
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=15 DEFAULT CHARSET=utf8

-- springBoot_test庫的腳本

CREATE TABLE `t_student` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `name` varchar(16) DEFAULT NULL,
  `age` int(11) DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=2 DEFAULT CHARSET=utf8

注:爲了偷懶,將兩張表的結構弄成同樣了!不過不影響測試!

application.properties中已經配置這兩個數據源的信息,上面已經貼出了一次配置,這裏就再也不貼了。這裏重點說下 第二個數據源的配置。和上面的MasterDataSourceConfig.java差很少,區別在與沒有使用**@Primary** 註解和名稱不一樣而已。須要注意的是MasterDataSourceConfig.java對package和mapper的掃描是精確到目錄的,這裏的第二個數據源也是如此。那麼代碼以下:

@Configuration
@MapperScan(basePackages = ClusterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "clusterSqlSessionFactory")
public class ClusterDataSourceConfig {

 static final String PACKAGE = "com.pancm.dao.cluster";
 static final String MAPPER_LOCATION = "classpath:mapper/cluster/*.xml";

 @Value("${cluster.datasource.url}")
 private String url;

 @Value("${cluster.datasource.username}")
 private String username;

 @Value("${cluster.datasource.password}")
 private String password;

 @Value("${cluster.datasource.driverClassName}")
 private String driverClass;

 // 和MasterDataSourceConfig同樣,這裏略

 @Bean(name = "clusterDataSource")
 public DataSource clusterDataSource() {
     DruidDataSource dataSource = new DruidDataSource();
     dataSource.setUrl(url);  
     dataSource.setUsername(username);  
     dataSource.setPassword(password);  
     dataSource.setDriverClassName(driverClass);  
   
     // 和MasterDataSourceConfig同樣,這裏略 ...
     return dataSource;
 }

 @Bean(name = "clusterTransactionManager")
 public DataSourceTransactionManager clusterTransactionManager() {
     return new DataSourceTransactionManager(clusterDataSource());
 }

 @Bean(name = "clusterSqlSessionFactory")
 public SqlSessionFactory clusterSqlSessionFactory(@Qualifier("clusterDataSource") DataSource clusterDataSource)
         throws Exception {
     final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
     sessionFactory.setDataSource(clusterDataSource);
     sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver().getResources(ClusterDataSourceConfig.MAPPER_LOCATION));
     return sessionFactory.getObject();
 }
}

成功寫完配置以後,啓動程序,進行測試。分別在springBootspringBoot_test庫中使用接口進行添加數據。

t_user

POST http://localhost:8084/api/user
{"name":"張三","age":25}
{"name":"李四","age":25}
{"name":"王五","age":25}

t_student

POST http://localhost:8084/api/student
{"name":"學生A","age":16}
{"name":"學生B","age":17}
{"name":"學生C","age":18}

成功添加數據以後,而後進行調用不一樣的接口進行查詢。

請求:

GET http://localhost:8084/api/user?name=李四

返回:

{
    "id": 2,
    "name": "李四",
    "age": 25
}

請求:

 GET http://localhost:8084/api/student?name=學生C

返回:

{
    "id": 1,
    "name": "學生C",
    "age": 16
}

經過數據能夠看出,成功配置了多數據源了。

PageHelper 分頁實現

PageHelper是Mybatis的一個分頁插件,很是的好用!這裏強烈推薦!!!

PageHelper的使用很簡單,只須要在Maven中添加pagehelper這個依賴就能夠了。Maven的依賴以下:

   <dependency>
   <groupId>com.github.pagehelper</groupId>
   <artifactId>pagehelper-spring-boot-starter</artifactId>
   <version>1.2.3</version>
  </dependency>

注:這裏我是用springBoot版的!也可使用其它版本的。

添加依賴以後,只須要添加以下配置或代碼就能夠了。第一種,在application.propertiesapplication.yml添加

  pagehelper:
  helperDialect: mysql
  offsetAsPageNum: true
  rowBoundsWithCount: true
  reasonable: false

第二種,在mybatis.xml配置中添加

  <bean id="sqlSessionFactory" class="org.mybatis.spring.SqlSessionFactoryBean">
    <property name="dataSource" ref="dataSource" />
    <!-- 掃描mapping.xml文件 -->
    <property name="mapperLocations" value="classpath:mapper/*.xml"></property>
    <!-- 配置分頁插件 -->
     <property name="plugins">
        <array>
          <bean class="com.github.pagehelper.PageHelper">
            <property name="properties">
              <value>
                helperDialect=mysql
    offsetAsPageNum=true
    rowBoundsWithCount=true
    reasonable=false
              </value>
            </property>
          </bean>
        </array>
      </property>
  </bean>

第三種,在代碼中添加,使用@Bean註解在啓動程序的時候初始化。

 @Bean
  public PageHelper pageHelper(){
    PageHelper pageHelper = new PageHelper();
   Properties properties = new Properties();
   //數據庫
   properties.setProperty("helperDialect", "mysql");
   //是否將參數offset做爲PageNum使用
   properties.setProperty("offsetAsPageNum", "true");
   //是否進行count查詢
   properties.setProperty("rowBoundsWithCount", "true");
   //是否分頁合理化
   properties.setProperty("reasonable", "false");
   pageHelper.setProperties(properties);
  }

由於這裏咱們使用的是多數據源,因此這裏的配置稍微有些不一樣。咱們須要在sessionFactory這裏配置。這裏就對MasterDataSourceConfig.java進行相應的修改。在masterSqlSessionFactory方法中,添加以下代碼。

    @Bean(name = "masterSqlSessionFactory")
    @Primary
    public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)
            throws Exception {
        final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
        sessionFactory.setDataSource(masterDataSource);
        sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
                .getResources(MasterDataSourceConfig.MAPPER_LOCATION));
        //分頁插件
        Interceptor interceptor = new PageInterceptor();
        Properties properties = new Properties();
        //數據庫
        properties.setProperty("helperDialect", "mysql");
        //是否將參數offset做爲PageNum使用
        properties.setProperty("offsetAsPageNum", "true");
        //是否進行count查詢
        properties.setProperty("rowBoundsWithCount", "true");
        //是否分頁合理化
        properties.setProperty("reasonable", "false");
        interceptor.setProperties(properties);
        sessionFactory.setPlugins(new Interceptor[] {interceptor});
        
    return sessionFactory.getObject();
  }

注:其它的數據源也想進行分頁的時候,參照上面的代碼便可。

這裏須要注意的是reasonable參數,表示分頁合理化,默認值爲false。若是該參數設置爲 true 時,pageNum<=0 時會查詢第一頁,pageNum>pages(超過總數時),會查詢最後一頁。默認false 時,直接根據參數進行查詢。

設置完PageHelper 以後,使用的話,只須要在查詢的sql前面添加PageHelper.startPage(pageNum,pageSize);,若是是想知道總數的話,在查詢的sql語句後買呢添加 page.getTotal() 就能夠了。代碼示例:

public List<T> findByListEntity(T entity) {
  List<T> list = null;
  try {
   Page<?> page =PageHelper.startPage(1,2); 
   System.out.println(getClassName(entity)+"設置第一頁兩條數據!");
   list = getMapper().findByListEntity(entity);
   System.out.println("總共有:"+page.getTotal()+"條數據,實際返回:"+list.size()+"兩條數據!");
  } catch (Exception e) {
   logger.error("查詢"+getClassName(entity)+"失敗!緣由是:",e);
  }
  return list;
 }

代碼編寫完畢以後,開始進行最後的測試。

查詢t_user表的全部的數據,並進行分頁。

請求:

GET http://localhost:8084/api/user

返回:

[
    {
        "id": 1,
        "name": "張三",
        "age": 25
    },
    {
        "id": 2,
        "name": "李四",
        "age": 25
    }
]

控制檯打印:

開始查詢...
User設置第一頁兩條數據!
2018-04-27 19:55:50.769 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT   : ==>  Preparing: SELECT count(0) FROM t_user WHERE 1 = 1 
2018-04-27 19:55:50.770 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT   : ==> Parameters: 
2018-04-27 19:55:50.771 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT   : <==      Total: 1
2018-04-27 19:55:50.772 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity  : ==>  Preparing: select id, name, age from t_user where 1=1 LIMIT ? 
2018-04-27 19:55:50.773 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity  : ==> Parameters: 2(Integer)
2018-04-27 19:55:50.774 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity  : <==      Total: 2
總共有:3條數據,實際返回:2兩條數據!

查詢t_student表的全部的數據,並進行分頁。

請求:

GET  http://localhost:8084/api/student

返回:

[
    {
        "id": 1,
        "name": "學生A",
        "age": 16
    },
    {
        "id": 2,
        "name": "學生B",
        "age": 17
    }
]

控制檯打印:

開始查詢...
Studnet設置第一頁兩條數據!
2018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT         : ==>  Preparing: SELECT count(0) FROM t_student WHERE 1 = 1 
2018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT         : ==> Parameters: 
2018-04-27 19:54:56.156 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT         : <==      Total: 1
2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity      : ==>  Preparing: select id, name, age from t_student where 1=1 LIMIT ? 
2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity      : ==> Parameters: 2(Integer)
2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity      : <==      Total: 2
總共有:3條數據,實際返回:2兩條數據!

查詢完畢以後,咱們再來看Druid 的監控界面。在瀏覽器輸入:http://127.0.0.1:8084/druid/index.htmlwatermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

能夠很清晰的看到操做記錄! 若是想知道更多的Druid相關知識,能夠查看官方文檔!

結語

這篇終於寫完了,在進行代碼編寫的時候,碰到過不少問題,而後慢慢的嘗試和找資料解決了。本篇文章只是很淺的介紹了這些相關的使用,在實際的應用可能會更復雜。若是有有更好的想法和建議,歡迎留言進行討論!

相關文章
相關標籤/搜索