GVKun编程网logo

Mybatis架构原理(二)-二级缓存源码剖析(mybatis的二级缓存原理)

58

这篇文章主要围绕Mybatis架构原理(二)-二级缓存源码剖析和mybatis的二级缓存原理展开,旨在为您提供一份详细的参考资料。我们将全面介绍Mybatis架构原理(二)-二级缓存源码剖析的优缺点,

这篇文章主要围绕Mybatis架构原理(二)-二级缓存源码剖析mybatis的二级缓存原理展开,旨在为您提供一份详细的参考资料。我们将全面介绍Mybatis架构原理(二)-二级缓存源码剖析的优缺点,解答mybatis的二级缓存原理的相关问题,同时也会为您带来2、MyBatis架构原理、4、二级缓存源码剖析、java架构之路-(mybatis源码)mybatis的一二级缓存问题、Mybaits 源码解析 (九)----- 一级缓存和二级缓存源码分析的实用方法。

本文目录一览:

Mybatis架构原理(二)-二级缓存源码剖析(mybatis的二级缓存原理)

Mybatis架构原理(二)-二级缓存源码剖析(mybatis的二级缓存原理)

Mybatis架构原理(二)-二级缓存源码剖析

二级缓存构建在一级缓存之上,在收到查询请求时,Mybatis首先会查询二级缓存,若二级缓存没有命中,再去查询一级缓存,一级缓存没有,在查询数据库;

二级缓存-->一级缓存-->数据库

与一级缓存不同,二级缓存和具体命名空间绑定,一个mapper中有一个cache,相同mapper中的mappedStatement共用一个Cache,一级缓存则是和sqlSession绑定;

启用二级缓存
  • 开启全局二级缓存配置:

    <settings> <setting name = "cacheEnabled" value = "true"/> </settings>
  • 在需要使用二级缓存的Mapper配置文件中配置<cache>标签

    <cache></cache>
  • 在具体CRUD标签上配置useCache = true

    <select id = "getById" resultType = "com.yun.pojo.User" useCache = "true"> select * from user where id = #{id} </select>
  • 标签 <cache/>解析
    //调用的重载方法    public sqlSessionFactory build(InputStream inputStream, String environment, Properties properties) {        try {            // 创建 XMLConfigBuilder, XMLConfigBuilder是专门解析mybatis的配置文件的类            XMLConfigBuilder parser = new XMLConfigBuilder(inputStream, environment, properties);            // 执行 XML 解析            // 创建 DefaultsqlSessionFactory 对象            return build(parser.parse());       } catch (Exception e) {            throw ExceptionFactory.wrapException("Error building sqlSession.", e);       } finally {            ErrorContext.instance().reset();            try {                inputStream.close();           } catch (IOException e) {                // Intentionally ignore. Prefer prevIoUs error.           }       }   } ​ --> parse()    //解析 XML 成 Configuration 对象。    public Configuration parse() {        // 若已解析,抛出 BuilderException 异常        if (parsed) {            throw new BuilderException("Each XMLConfigBuilder can only be used once.");       }        // 标记已解析        parsed = true;        ///parser是XPathParser解析器对象,读取节点内数据,<configuration>是MyBatis配置文件中的顶层标签        // 解析 XML configuration 节点        parseConfiguration(parser.evalNode("/configuration"));        return configuration;   } ​ --> parseConfiguration()    //具体 MyBatis 有哪些 XML 标签,参见 《XML 映射配置文件》http://www.mybatis.org/mybatis-3/zh/configuration.html    private void parseConfiguration(XNode root) {        try {            //issue #117 read properties first            // 解析 <properties /> 标签            propertiesElement(root.evalNode("properties"));            // 解析 <settings /> 标签            Properties settings = settingsAsProperties(root.evalNode("settings"));            // 加载自定义的 VFS 实现类            loadCustomVfs(settings);            // 解析 <typeAliases /> 标签            typeAliasesElement(root.evalNode("typeAliases"));            // 解析 <plugins /> 标签            pluginElement(root.evalNode("plugins"));            // 解析 <objectFactory /> 标签            objectFactoryElement(root.evalNode("objectFactory"));            // 解析 <objectWrapperFactory /> 标签            objectWrapperFactoryElement(root.evalNode("objectWrapperFactory"));            // 解析 <reflectorFactory /> 标签            reflectorFactoryElement(root.evalNode("reflectorFactory"));            // 赋值 <settings /> 到 Configuration 属性            settingsElement(settings);            // read it after objectFactory and objectWrapperFactory issue #631            // 解析 <environments /> 标签            environmentsElement(root.evalNode("environments"));            // 解析 <databaseIdProvider /> 标签            databaseIdProviderElement(root.evalNode("databaseIdProvider"));            // 解析 <typeHandlers /> 标签            typeHandlerElement(root.evalNode("typeHandlers"));            // 解析 <mappers /> 标签            mapperElement(root.evalNode("mappers"));       } catch (Exception e) {            throw new BuilderException("Error parsing sql Mapper Configuration. Cause: " + e, e);       }   } ​ --> mapperElement()    private void mapperElement(XNode parent) throws Exception {        if (parent != null) {            // 遍历子节点            for (XNode child : parent.getChildren()) {                // 如果是 package 标签,则扫描该包                if ("package".equals(child.getName())) {                    // 获取 <package> 节点中的 name 属性                    String mapperPackage = child.getStringAttribute("name");                    // 从指定包中查找 mapper 接口,并根据 mapper 接口解析映射配置                    configuration.addMappers(mapperPackage);                // 如果是 mapper 标签,               } else {                    // 获得 resource、url、class 属性                    String resource = child.getStringAttribute("resource");                    String url = child.getStringAttribute("url");                    String mapperClass = child.getStringAttribute("class"); ​                    // resource 不为空,且其他两者为空,则从指定路径中加载配置                    if (resource != null && url == null && mapperClass == null) {                        ErrorContext.instance().resource(resource);                        // 获得 resource 的 InputStream 对象                        InputStream inputStream = Resources.getResourceAsstream(resource);                        // 创建 XMLMapperBuilder 对象                        XMLMapperBuilder mapperParser = new XMLMapperBuilder(inputStream, configuration, resource, configuration.getsqlFragments());                        // 执行解析                        mapperParser.parse();                        // url 不为空,且其他两者为空,则通过 url 加载配置                   } else if (resource == null && url != null && mapperClass == null) {                        ErrorContext.instance().resource(url);                        // 获得 url 的 InputStream 对象                        InputStream inputStream = Resources.getUrlAsstream(url);                        // 创建 XMLMapperBuilder 对象                        XMLMapperBuilder mapperParser = new XMLMapperBuilder(inputStream, configuration, url, configuration.getsqlFragments());                        // 执行解析                        mapperParser.parse();                        // mapperClass 不为空,且其他两者为空,则通过 mapperClass 解析映射配置                   } else if (resource == null && url == null && mapperClass != null) {                        // 获得 Mapper 接口                        Class<?> mapperInterface = Resources.classForName(mapperClass);                        // 添加到 configuration 中                        configuration.addMapper(mapperInterface);                        // 以上条件不满足,则抛出异常                   } else {                        throw new BuilderException("A mapper element may only specify a url, resource or class, but not more than one.");                   }               }           }       }   } ​ --> parse()    public void parse() {        // 判断当前 Mapper 是否已经加载过        if (!configuration.isResourceLoaded(resource)) {            // 解析 `<mapper />` 节点            configurationElement(parser.evalNode("/mapper"));            // 标记该 Mapper 已经加载过            configuration.addLoadedResource(resource);            // 绑定 Mapper            bindMapperForNamespace();       } ​        // 解析待定的 <resultMap /> 节点        parsePendingResultMaps();        // 解析待定的 <cache-ref /> 节点        parsePendingCacheRefs();        // 解析待定的 sql 语句的节点        parsePendingStatements();   } ​ --> configurationElement()    // 解析 `<mapper />` 节点    private void configurationElement(XNode context) {        try {            // 获得 namespace 属性            String namespace = context.getStringAttribute("namespace");            if (namespace == null || namespace.equals("")) {                throw new BuilderException("Mapper's namespace cannot be empty");           }            // 设置 namespace 属性            builderAssistant.setCurrentNamespace(namespace);            // 解析 <cache-ref /> 节点            cacheRefElement(context.evalNode("cache-ref"));            // 解析 <cache /> 节点            cacheElement(context.evalNode("cache"));            // 已废弃!老式风格的参数映射。内联参数是首选,这个元素可能在将来被移除,这里不会记录。            parameterMapElement(context.evalNodes("/mapper/parameterMap"));            // 解析 <resultMap /> 节点们            resultMapElements(context.evalNodes("/mapper/resultMap"));            // 解析 <sql /> 节点们            sqlElement(context.evalNodes("/mapper/sql"));            // 解析 <select /> <insert /> <update /> <delete /> 节点们            // 这里会将生成的Cache包装到对应的MappedStatement            buildStatementFromContext(context.evalNodes("select|insert|update|delete"));       } catch (Exception e) {            throw new BuilderException("Error parsing Mapper XML. The XML location is '" + resource + "'. Cause: " + e, e);       }   } ​ --> cacheElement()    //创建 Cache 对象    public Cache useNewCache(Class<? extends Cache> typeClass,                             Class<? extends Cache> evictionClass,                             Long flushInterval,                             Integer size,                             boolean readWrite,                             boolean blocking,                             Properties props) { ​        // 1.生成Cache对象        Cache cache = new CacheBuilder(currentNamespace)                //这里如果我们定义了<cache/>中的type,就使用自定义的Cache,否则使用和一级缓存相同的PerpetualCache               .implementation(valueOrDefault(typeClass, PerpetualCache.class))               .addDecorator(valueOrDefault(evictionClass, LruCache.class))               .clearInterval(flushInterval)               .size(size)               .readWrite(readWrite)               .blocking(blocking)               .properties(props)               .build();        // 2.添加到Configuration中        configuration.addCache(cache);        // 3.并将cache赋值给MapperBuilderAssistant.currentCache        currentCache = cache;        return cache;   } ​ --> buildStatementFromContext()    // 解析 <select /> <insert /> <update /> <delete /> 节点们    private void buildStatementFromContext(List<XNode> list) {        if (configuration.getDatabaseId() != null) {            buildStatementFromContext(list, configuration.getDatabaseId());       }        buildStatementFromContext(list, null);        // 上面两块代码,可以简写成 buildStatementFromContext(list, configuration.getDatabaseId());   } private void buildStatementFromContext(List<XNode> list, String requiredDatabaseId) {        //遍历 <select /> <insert /> <update /> <delete /> 节点们        for (XNode context : list) {            // 创建 XMLStatementBuilder 对象,执行解析            final XMLStatementBuilder statementParser = new XMLStatementBuilder(configuration, builderAssistant, context, requiredDatabaseId);            try { ​                // 每一条执行语句转换成一个MappedStatement                statementParser.parseStatementNode();           } catch (IncompleteElementException e) {                // 解析失败,添加到 configuration 中                configuration.addIncompleteStatement(statementParser);           }       }   } ​ --> parseStatementNode()    //执行解析    public void parseStatementNode() {        // 获得 id 属性,编号。        String id = context.getStringAttribute("id");        // 获得 databaseId , 判断 databaseId 是否匹配        String databaseId = context.getStringAttribute("databaseId");        if (!databaseIdMatchesCurrent(id, databaseId, this.requiredDatabaseId)) {            return;       } ​        // 获得各种属性        Integer fetchSize = context.getIntAttribute("fetchSize");        Integer timeout = context.getIntAttribute("timeout");        String parameterMap = context.getStringAttribute("parameterMap");        String parameterType = context.getStringAttribute("parameterType");        Class<?> parameterTypeClass = resolveClass(parameterType);        String resultMap = context.getStringAttribute("resultMap");        String resultType = context.getStringAttribute("resultType");        String lang = context.getStringAttribute("lang"); ​        // 获得 lang 对应的 LanguageDriver 对象        LanguageDriver langDriver = getLanguageDriver(lang); ​        // 获得 resultType 对应的类        Class<?> resultTypeClass = resolveClass(resultType);        // 获得 resultSet 对应的枚举值        String resultSetType = context.getStringAttribute("resultSetType");        ResultSetType resultSetTypeEnum = resolveResultSetType(resultSetType);        // 获得 statementType 对应的枚举值        StatementType statementType = StatementType.valueOf(context.getStringAttribute("statementType", StatementType.PREPARED.toString())); ​        // 获得 sql 对应的 sqlCommandType 枚举值        String nodeName = context.getNode().getNodeName();        sqlCommandType sqlCommandType = sqlCommandType.valueOf(nodeName.toupperCase(Locale.ENGLISH));        // 获得各种属性        boolean isSelect = sqlCommandType == sqlCommandType.SELECT;        boolean flushCache = context.getBooleanAttribute("flushCache", !isSelect);        boolean useCache = context.getBooleanAttribute("useCache", isSelect);        boolean resultOrdered = context.getBooleanAttribute("resultOrdered", false); ​        // Include Fragments before parsing        // 创建 XMLIncludeTransformer 对象,并替换 <include /> 标签相关的内容        XMLIncludeTransformer includeParser = new XMLIncludeTransformer(configuration, builderAssistant);        includeParser.applyIncludes(context.getNode()); ​        // Parse selectKey after includes and remove them.        // 解析 <selectKey /> 标签        processSelectKeyNodes(id, parameterTypeClass, langDriver); ​        // Parse the sql (pre: <selectKey> and <include> were parsed and removed)        // 创建 sqlSource 对象        sqlSource sqlSource = langDriver.createsqlSource(configuration, context, parameterTypeClass);        // 获得 KeyGenerator 对象        String resultSets = context.getStringAttribute("resultSets");        String keyProperty = context.getStringAttribute("keyProperty");        String keyColumn = context.getStringAttribute("keyColumn");        KeyGenerator keyGenerator;        // 优先,从 configuration 中获得 KeyGenerator 对象。如果存在,意味着是 <selectKey /> 标签配置的        String keyStatementId = id + SelectKeyGenerator.SELECT_KEY_SUFFIX;        keyStatementId = builderAssistant.applyCurrentNamespace(keyStatementId, true);        if (configuration.hasKeyGenerator(keyStatementId)) {            keyGenerator = configuration.getKeyGenerator(keyStatementId);        // 其次,根据标签属性的情况,判断是否使用对应的 Jdbc3KeyGenerator 或者 NoKeyGenerator 对象       } else {            keyGenerator = context.getBooleanAttribute("useGeneratedKeys", // 优先,基于 useGeneratedKeys 属性判断                    configuration.isUseGeneratedKeys() && sqlCommandType.INSERT.equals(sqlCommandType)) // 其次,基于全局的 useGeneratedKeys 配置 + 是否为插入语句类型                    ? Jdbc3KeyGenerator.INSTANCE : NoKeyGenerator.INSTANCE;       } ​        // 创建 MappedStatement 对象        builderAssistant.addMappedStatement(id, sqlSource, statementType, sqlCommandType,                fetchSize, timeout, parameterMap, parameterTypeClass, resultMap, resultTypeClass,                resultSetTypeEnum, flushCache, useCache, resultOrdered,                keyGenerator, keyProperty, keyColumn, databaseId, langDriver, resultSets);   } ​ -->addMappedStatement()    // 构建 MappedStatement 对象    public MappedStatement addMappedStatement(            String id,            sqlSource sqlSource,            StatementType statementType,            sqlCommandType sqlCommandType,            Integer fetchSize,            Integer timeout,            String parameterMap,            Class<?> parameterType,            String resultMap,            Class<?> resultType,            ResultSetType resultSetType,            boolean flushCache,            boolean useCache,            boolean resultOrdered,            KeyGenerator keyGenerator,            String keyProperty,            String keyColumn,            String databaseId,            LanguageDriver lang,            String resultSets) { ​        // 如果只想的 Cache 未解析,抛出 IncompleteElementException 异常        if (unresolvedCacheRef) {            throw new IncompleteElementException("Cache-ref not yet resolved");       } ​        // 获得 id 编号,格式为 `${namespace}.${id}`        id = applyCurrentNamespace(id, false);        boolean isSelect = sqlCommandType == sqlCommandType.SELECT; ​        // 创建 MappedStatement.Builder 对象        MappedStatement.Builder statementBuilder = new MappedStatement.Builder(configuration, id, sqlSource, sqlCommandType)               .resource(resource)               .fetchSize(fetchSize)               .timeout(timeout)               .statementType(statementType)               .keyGenerator(keyGenerator)               .keyProperty(keyProperty)               .keyColumn(keyColumn)               .databaseId(databaseId)               .lang(lang)               .resultOrdered(resultOrdered)               .resultSets(resultSets)               .resultMaps(getStatementResultMaps(resultMap, resultType, id)) // 获得 ResultMap 集合               .resultSetType(resultSetType)               .flushCacherequired(valueOrDefault(flushCache, !isSelect))               .useCache(valueOrDefault(useCache, isSelect))               .cache(currentCache); // 在这里将之前生成的Cache封装到MappedStatement ​        // 获得 ParameterMap ,并设置到 MappedStatement.Builder 中        ParameterMap statementParameterMap = getStatementParameterMap(parameterMap, parameterType, id);        if (statementParameterMap != null) {            statementBuilder.parameterMap(statementParameterMap);       } ​        // 创建 MappedStatement 对象        MappedStatement statement = statementBuilder.build();        // 添加到 configuration 中        configuration.addMappedStatement(statement);        return statement;   }    

    我们看到将Mapper中创建的Cache对象,加入到了每个MappedStatement对象中,也就是同一个mapper中所有的MappedStatement中的cache属性引用是同一个;


    CachingExecutor(源码验证一级缓存和二级缓存同时开启的状态下,在进行查询时,按照二级缓存-->一级缓存-->数据库顺序执行)
    User user = sqlSession1.selectOne("com.yun.mapper.IUserMapper.findById", 1); ​ -->    public <T> T selectOne(String statement, Object parameter) {        // Popular Vote was to return null on 0 results and throw exception on too many.        List<T> list = this.selectList(statement, parameter);        if (list.size() == 1) {            return list.get(0);       } else if (list.size() > 1) {            throw new TooManyResultsException("Expected one result (or null) to be returned by selectOne(), but found: " + list.size());       } else {            return null;       }   } ​ -->selectList()    public <E> List<E> selectList(String statement, Object parameter) {        return this.selectList(statement, parameter, RowBounds.DEFAULT);   } ​    public <E> List<E> selectList(String statement, Object parameter, RowBounds rowBounds) {        try {            // 获得 MappedStatement 对象            MappedStatement ms = configuration.getMappedStatement(statement);            // 执行查询            return executor.query(ms, wrapCollection(parameter), rowBounds, Executor.NO_RESULT_HANDLER);       } catch (Exception e) {            throw ExceptionFactory.wrapException("Error querying database. Cause: " + e, e);       } finally {            ErrorContext.instance().reset();       }   } ​ -->query() 先走CachingExecutor    @Override    public <E> List<E> query(MappedStatement ms, Object parameterObject, RowBounds rowBounds, ResultHandler resultHandler, CacheKey key, Boundsql boundsql)            throws sqlException { ​        // 从 MappedStatement 中获取 Cache,注意这里的 Cache 是从MappedStatement中获取的        // 也就是我们上面解析Mapper中<cache/>标签中创建的,它保存在Configration中        // 我们在初始化解析xml时分析过每一个MappedStatement都有一个Cache对象,就是这里        Cache cache = ms.getCache(); ​        // 如果配置文件中没有配置 <cache>,则 cache 为空        if (cache != null) {            //如果需要刷新缓存的话就刷新:flushCache="true"            flushCacheIfrequired(ms);            if (ms.isUseCache() && resultHandler == null) {                // 暂时忽略,存储过程相关                ensureNoOutParams(ms, boundsql);                @SuppressWarnings("unchecked")                // 从二级缓存中,获取结果                List<E> list = (List<E>) tcm.getobject(cache, key);                if (list == null) {                    // 如果没有值,则执行查询,这个查询实际也是先走一级缓存查询,一级缓存也没有的话,则进行DB查询                    list = delegate.query(ms, parameterObject, rowBounds, resultHandler, key, boundsql);                    // 缓存查询结果(将查询结果再次存放缓存中,但并不是存放到二级缓存中)                    tcm.putObject(cache, key, list); // issue #578 and #116               }                // 如果存在,则直接返回结果                return list;           }       }        // 不使用缓存,则从数据库中查询(会查一级缓存)        return delegate.query(ms, parameterObject, rowBounds, resultHandler, key, boundsql);   } ​ -->query()再走BaseExecutor    public <E> List<E> query(MappedStatement ms, Object parameter, RowBounds rowBounds, ResultHandler resultHandler, CacheKey key, Boundsql boundsql) throws sqlException {        ErrorContext.instance().resource(ms.getResource()).activity("executing a query").object(ms.getId());        // 已经关闭,则抛出 ExecutorException 异常        if (closed) {            throw new ExecutorException("Executor was closed.");       }        // 清空本地缓存,如果 queryStack 为零,并且要求清空本地缓存。        if (queryStack == 0 && ms.isFlushCacherequired()) {            clearLocalCache();       }        List<E> list;        try {            // queryStack + 1            queryStack++;            // 从一级缓存中,获取查询结果            list = resultHandler == null ? (List<E>) localCache.getobject(key) : null;            // 获取到,则进行处理            if (list != null) {                handleLocallyCachedOutputParameters(ms, key, parameter, boundsql);            // 获得不到,则从数据库中查询           } else {                list = queryFromDatabase(ms, parameter, rowBounds, resultHandler, key, boundsql);           }       } finally {            // queryStack - 1            queryStack--;       }        if (queryStack == 0) {            // 执行延迟加载            for (DeferredLoad deferredLoad : deferredLoads) {                deferredLoad.load();           }            // issue #601            // 清空 deferredLoads            deferredLoads.clear();            // 如果缓存级别是 LocalCacheScope.STATEMENT ,则进行清理            if (configuration.getLocalCacheScope() == LocalCacheScope.STATEMENT) {                // issue #482                clearLocalCache();           }       }        return list;   } ​ -->queryFromDatabase()    // 从数据库中读取操作    private <E> List<E> queryFromDatabase(MappedStatement ms, Object parameter, RowBounds rowBounds, ResultHandler resultHandler, CacheKey key, Boundsql boundsql) throws sqlException {        List<E> list;        // 在缓存中,添加占位对象。此处的占位符,和延迟加载有关,可见 `DeferredLoad#canLoad()` 方法        localCache.putObject(key, EXECUTION_PLACEHOLDER);        try {            // 执行读操作            list = doQuery(ms, parameter, rowBounds, resultHandler, boundsql);       } finally {            // 从缓存中,移除占位对象            localCache.removeObject(key);       }        // 添加到缓存中(也就是添加到一级缓存中)        localCache.putObject(key, list);        // 暂时忽略,存储过程相关        if (ms.getStatementType() == StatementType.CALLABLE) {            localOutputParameterCache.putObject(key, parameter);       }        return list;   } ​ -->queryFromDatabase()走完回到CachingExecutor的query()方法中进入 putObject()    进入putObject()方法之前先看一下 TransactionalCacheManager类,他是事务缓存管理器,他内部维护了    private final Map<Cache, TransactionalCache> transactionalCaches = new HashMap<>();这么一个cache实例和TransactionalCache实例的一个映射关系,真正做事的是TransactionalCache,为什么我们之前已经获取到Cache这个对象了,不用cache反而用transactionalCaches呢?  那是因为我们现在的二级缓存是从MAppedStatement中获取的.

    下面我们看看TransactionalCache主要是做些什么的

    打开TransactionalCacheManager源码可以看到下面两个方法

       /**     * 获得缓存中,指定 Cache + K 的值。     */    public Object getobject(Cache cache, CacheKey key) {        // 直接从TransactionalCache中获取缓存        return getTransactionalCache(cache).getobject(key);   } ​ -->getTransactionalCache()    /**     * 获得 Cache 对应的 TransactionalCache 对象     */    private TransactionalCache getTransactionalCache(Cache cache) {        return transactionalCaches.computeIfAbsent(cache, TransactionalCache::new);   } ​    /**     * 添加 Cache + KV ,到缓存中     */    public void putObject(Cache cache, CacheKey key, Object value) {        // 直接存入TransactionalCache的缓存中        getTransactionalCache(cache).putObject(key, value);   }

    进入TransactionalCache查看getobject()和putObject()两个方法之间的作用

       /**     * 委托的 Cache 对象。     * 实际上,就是二级缓存 Cache 对象。     */    private final Cache delegate;    /**     * 提交时,清空 {@link #delegate}     * 初始时,该值为 false     * 清理后{@link #clear()} 时,该值为 true ,表示持续处于清空状态     */    private boolean clearOnCommit;    /**     * 在事务被提交前,所有从数据库中查询的结果将缓存在此集合中     */    private final Map<Object, Object> entriesToAddOnCommit;    /**     * 在事务被提交前,当缓存未命中时,CacheKey 将会被存储在此集合中     */    private final Set<Object> entriesMissedInCache;     ​ public Object getobject(Object key) {        // 查询的时候是直接从delegate中去查询的,也就是从真正的缓存对象中查询        Object object = delegate.getobject(key);        // 如果不存在,则添加到 entriesMissedInCache 中        if (object == null) {            // 缓存未命中,则将 key 存入到 entriesMissedInCache 中            entriesMissedInCache.add(key);       }        // issue #146        // 如果 clearOnCommit 为 true ,表示处于持续清空状态,则返回 null        if (clearOnCommit) {            return null;        // 返回 value       } else {            return object;       }   }        public void putObject(Object key, Object object) {        // 将键值对存入到 entriesToAddOnCommit 这个Map中中,而非真实的缓存对象 delegate 中        entriesToAddOnCommit.put(key, object);   }

    TransactionalCache实现了cache接口,第一次存储的时候是存到了entriesToAddOnCommit集合中,但是取的时候,却是从delegate二级缓存中取,因此我们可以得知是无论如何都获取不到的,这也是引出了在测试方法中,为什么第一次查询和第二次查询之间要commit一下了;

    @Test  public void test3() throws IOException { ​    InputStream inputStream = Resources.getResourceAsstream("sqlMapConfig.xml");    sqlSessionFactory factory = new sqlSessionFactoryBuilder().build(inputStream); ​    sqlSession sqlSession1 = factory.openSession();    sqlSession sqlSession2 = factory.openSession(); ​    User user1 = sqlSession1.selectOne("com.yun.mapper.IUserMapper.findById", 1);    System.out.println(user1); ​    sqlSession1.commit(); ​    User user = new User();    user.setId(1);    user.setUsername("jack");    // 增删改会清空二级缓存    sqlSession1.update("com.yun.mapper.IUserMapper.updateById",user); ​ ​    User user2 = sqlSession2.selectOne("com.yun.mapper.IUserMapper.findById", 1);    System.out.println(user2); ​ }

    TransactionalCache类里面有一个commit方法

    public void commit() {        // 如果 clearOnCommit 为 true ,则清空 delegate 缓存        if (clearOnCommit) {            delegate.clear();       }        // 将 entriesToAddOnCommit、entriesMissedInCache 刷入 delegate(cache) 中        flushPendingEntries();        // 重置        reset();   } ​ /**     * 将 entriesToAddOnCommit、entriesMissedInCache 刷入 delegate 中     */    private void flushPendingEntries() {        // 将 entriesToAddOnCommit 中的内容转存到 delegate 中        for (Map.Entry<Object, Object> entry : entriesToAddOnCommit.entrySet()) { ​            // 在这里真正的将entriesToAddOnCommit的对象逐个添加到delegate中,只有这时,二级缓存才真正的生效            delegate.putObject(entry.getKey(), entry.getValue());       }        // 将 entriesMissedInCache 刷入 delegate 中        for (Object entry : entriesMissedInCache) {            if (!entriesToAddOnCommit.containsKey(entry)) {                delegate.putObject(entry, null);           }       }   }

    可以看到它里面的flushPendingEntries()就是将 entriesToAddOnCommit、entriesMissedInCache 刷入 delegate(cache) 中;

    这样就能解释我们在像entriesToAddOnCommit这个集合中存完数据后,下一次从二级缓存对象delegate中获取数据之前,需要让commit()执行一次,那么entriesToAddOnCommit里面的内容才会真正的存到delegate这个对象中,这样二级缓存中才会有数据.不直接存到delegate中是因为缓存中可能会存在脏数据问题,所以需要先存到entriesToAddOnCommit中去;

    2、MyBatis架构原理

    2、MyBatis架构原理

    一、架构设计

    image-20211029140627246

    Mybatis的功能架构分为三层:

    • API接⼝层:提供给外部使⽤的接⼝ API,开发⼈员通过这些本地API来操纵数据库。接⼝层⼀接收 到 调⽤请求就会调⽤数据处理层来完成具体的数据处理。

      MyBatis和数据库的交互有两种⽅式:

      • 使⽤传统的MyBati s提供的API ;

      • 使⽤Mapper代理的⽅式

    • 数据处理层:负责具体的SQL查找、SQL解析、SQL执⾏和执⾏结果映射处理等。它主要的⽬的是根 据调⽤的请求完成⼀次数据库操作。

    • 基础⽀撑层:负责最基础的功能⽀撑,包括连接管理、事务管理、配置加载和缓存处理,这些都是 共 ⽤的东⻄,将他们抽取出来作为最基础的组件。为上层的数据处理层提供最基础的⽀撑

    二、主要构件及其相互关系

    • SqlSession: MyBatis⼯作的主要顶层API,表示和数据库交互的会话,完成必要数 据库增删改查功能
    • Executor:MyBatis执⾏器,是MyBatis调度的核⼼,负责SQL语句的⽣成和查询缓 存的维护
    • StatementHandler:封装了JDBC Statement操作,负责对JDBC statement的操作,如设置参 数、将Statement结果集转换成List集合
    • ParameterHandler:负责对⽤户传递的参数转换成JDBC Statement所需要的参数
    • ResultSetHandler:负责将JDBC返回的ResultSet结果集对象转换成List类型的集合;
    • TypeHandler:负责java数据类型和jdbc数据类型之间的映射和转换
    • MappedStatement:MappedStatement维护了⼀条<select | update | delete | insert>节点 的封 装
    • SqlSource:负责根据⽤户传递的parameterObject,动态地⽣成SQL语句,将信息封 装到BoundSql对象中,并返回
    • BoundSql:表示动态⽣成的SQL语句以及相应的参数信息

    Mybatis层次结构

    4、二级缓存源码剖析

    4、二级缓存源码剖析

    一、二级缓存配置

    简介

    二级缓存构建在一级缓存之上,在收到查询请求时,MyBatis 首先会查询二级缓存,若二级缓存未命

    中,再去查询一级缓存,一级缓存没有,再查询数据库。

    graph LR a (二级缓存) --> b (一级缓存) -->c (数据库)

    与一级缓存不同,二级缓存和具体的命名空间绑定,一个 Mapper 中有一个 Cache,相同 Mapper 中的 MappedStatement 共用一个 Cache,一级缓存则是和 SqlSession 绑定

    如何启用二级缓存

    1. 开启全局二级缓存配置:

     <settings>
       <setting name="cacheEnabled" value="true"/>
    </settings>
    

    2. 在需要使用二级缓存的 Mapper 配置文件中配置标签

    <cache></cache>
    

    3. 在具体 CURD 标签上配置 useCache=true

     <select id="findById" resultType="com.wuzx.pojo.User" useCache="true">
        select * from user where id = #{id}
    </select>
    

    源码解析

    标签 < cache/> 的解析

    其实这这个标签是在每个 mapper.xml 文件配置的,所以每次都是解析 mapper 文件中一同解析的,来上源码

        // 解析 `<mapper />` 节点
        private void configurationElement(XNode context) {
            try {
                // 获得 namespace 属性
                String namespace = context.getStringAttribute("namespace");
                if (namespace == null || namespace.equals("")) {
                    throw new BuilderException("Mapper''s namespace cannot be empty");
                }
                // 设置 namespace 属性
                builderAssistant.setCurrentNamespace(namespace);
                // 解析 <cache-ref /> 节点
                cacheRefElement(context.evalNode("cache-ref"));
                // 解析 <cache /> 节点
                cacheElement(context.evalNode("cache"));
                // 已废弃!老式风格的参数映射。内联参数是首选,这个元素可能在将来被移除,这里不会记录。
                parameterMapElement(context.evalNodes("/mapper/parameterMap"));
                // 解析 <resultMap /> 节点们
                resultMapElements(context.evalNodes("/mapper/resultMap"));
                // 解析 <sql /> 节点们
                sqlElement(context.evalNodes("/mapper/sql"));
                // 解析 <select /> <insert /> <update /> <delete /> 节点们
                // 这里会将生成的Cache包装到对应的MappedStatement
                buildStatementFromContext(context.evalNodes("select|insert|update|delete"));
            } catch (Exception e) {
                throw new BuilderException("Error parsing Mapper XML. The XML location is ''" + resource + "''. Cause: " + e, e);
            }
        }
        
            // 解析 <cache /> 标签
        private void cacheElement(XNode context) throws Exception {
            if (context != null) {
                //解析<cache/>标签的type属性,这里我们可以自定义cache的实现类,比如redisCache,如果没有自定义,这里使用和一级缓存相同的PERPETUAL
                String type = context.getStringAttribute("type", "PERPETUAL");
                Class<? extends Cache> typeClass = typeAliasRegistry.resolveAlias(type);
                // 获得负责过期的 Cache 实现类
                String eviction = context.getStringAttribute("eviction", "LRU");
                Class<? extends Cache> evictionClass = typeAliasRegistry.resolveAlias(eviction);
                // 清空缓存的频率。0 代表不清空
                Long flushInterval = context.getLongAttribute("flushInterval");
                // 缓存容器大小
                Integer size = context.getIntAttribute("size");
                // 是否序列化
                boolean readWrite = !context.getBooleanAttribute("readOnly", false);
                // 是否阻塞
                boolean blocking = context.getBooleanAttribute("blocking", false);
                // 获得 Properties 属性
                Properties props = context.getChildrenAsProperties();
                // 创建 Cache 对象
                builderAssistant.useNewCache(typeClass, evictionClass, flushInterval, size, readWrite, blocking, props);
            }
        }
        
        
           /**
         * 创建 Cache 对象
         *
         * @param typeClass 负责存储的 Cache 实现类
         * @param evictionClass 负责过期的 Cache 实现类
         * @param flushInterval 清空缓存的频率。0 代表不清空
         * @param size 缓存容器大小
         * @param readWrite 是否序列化
         * @param blocking 是否阻塞
         * @param props Properties 对象
         * @return Cache 对象
         */
        public Cache useNewCache(Class<? extends Cache> typeClass,
                                 Class<? extends Cache> evictionClass,
                                 Long flushInterval,
                                 Integer size,
                                 boolean readWrite,
                                 boolean blocking,
                                 Properties props) {
    
            // 1.生成Cache对象
            Cache cache = new CacheBuilder(currentNamespace)
                    //这里如果我们定义了<cache/>中的type,就使用自定义的Cache,否则使用和一级缓存相同的PerpetualCache
                    .implementation(valueOrDefault(typeClass, PerpetualCache.class))
                    .addDecorator(valueOrDefault(evictionClass, LruCache.class))
                    .clearInterval(flushInterval)
                    .size(size)
                    .readWrite(readWrite)
                    .blocking(blocking)
                    .properties(props)
                    .build();
            // 2.添加到Configuration中
            configuration.addCache(cache);
            // 3.并将cache赋值给MapperBuilderAssistant.currentCache
            currentCache = cache;
            return cache;
        }
    

    看源码可以得出,其实 id 就是 namespace 标签配置的只,然后这个 cache 对象会加入到 configuration 对象的 cachaes 集合里面,将 cache 赋值给 MapperBuilderAssistant.currentCache

        /**
         * Cache 对象集合
         *
         * KEY:命名空间 namespace
         */
        protected final Map<String, Cache> caches = new StrictMap<>("Caches collection");
    

    二、查询调用缓存源码剖析

    CachingExecutor(支持二级缓存的 Executor 的实现类)

        public <E> List<E> query(MappedStatement ms, Object parameterObject, RowBounds rowBounds, ResultHandler resultHandler) throws SQLException {
            // 获得 BoundSql 对象
            BoundSql boundSql = ms.getBoundSql(parameterObject);
            // 创建 CacheKey 对象
            CacheKey key = createCacheKey(ms, parameterObject, rowBounds, boundSql);
            // 查询
            return query(ms, parameterObject, rowBounds, resultHandler, key, boundSql);
        }
    
        public Object getObject(Object key) {
            // 查询的时候是直接从delegate中去查询的,也就是从真正的缓存对象中查询
            Object object = delegate.getObject(key);
            // 如果不存在,则添加到 entriesMissedInCache 中
            if (object == null) {
                // 缓存未命中,则将 key 存入到 entriesMissedInCache 中
                entriesMissedInCache.add(key);
            }
            // issue #146
            // 如果 clearOnCommit 为 true ,表示处于持续清空状态,则返回 null
            if (clearOnCommit) {
                return null;
            // 返回 value
            } else {
                return object;
            }
        }
    
        public void putObject(Object key, Object object) {
            // 将键值对存入到 entriesToAddOnCommit 这个Map中中,而非真实的缓存对象 delegate 中
            entriesToAddOnCommit.put(key, object);
        }	
    

    存储二级缓存对象的时候是放到了 TransactionalCache.entriesToAddOnCommit 这个 map 中,但是每 次查询的时候是直接从 TransactionalCache.delegate 中去查询的,所以这个二级缓存查询数据库后,设 置缓存值是没有立刻生效的,主要是因为直接存到 delegate 会导致脏数据问题

    三、为何只有 SqlSession 提交或关闭之后?

    那我们来看下 SqlSession.commit () 方法做了什么

    SqlSession

        public void commit(boolean force) {
            try {
                // 提交事务
                executor.commit(isCommitOrRollbackRequired(force));
                // 标记 dirty 为 false
                dirty = false;
            } catch (Exception e) {
                throw ExceptionFactory.wrapException("Error committing transaction.  Cause: " + e, e);
            } finally {
                ErrorContext.instance().reset();
            }
        }
        public void commit(boolean required) throws SQLException {
            // 执行 delegate 对应的方法
            delegate.commit(required);
            // 提交 TransactionalCacheManager
            tcm.commit();
        }
        /**
         * 提交所有 TransactionalCache
         */
        public void commit() {
            for (TransactionalCache txCache : transactionalCaches.values()) {
                txCache.commit();
            }
        }
    
    

    二级缓存的刷新

        public int update(MappedStatement ms, Object parameterObject) throws SQLException {
            // 如果需要清空缓存,则进行清空
            flushCacheIfRequired(ms);
            // 执行 delegate 对应的方法
            return delegate.update(ms, parameterObject);
        }
    
        /**
         * 如果需要清空缓存,则进行清空
         *
         * @param ms MappedStatement 对象
         */
        private void flushCacheIfRequired(MappedStatement ms) {
            Cache cache = ms.getCache();
            if (cache != null && ms.isFlushCacheRequired()) { // 是否需要清空缓存
                tcm.clear(cache);
            }
        }
    

    MyBatis 二级缓存只适用于不常进行增、删、改的数据,比如国家行政区省市区街道数据。一但数据变 更,MyBatis 会清空缓存。因此二级缓存不适用于经常进行更新的数据。

    四、总结

    在二级缓存的设计上,MyBatis 大量地运用了装饰者模式,如 CachingExecutor, 以及各种 Cache 接口的 装饰器

    • 二级缓存实现了 Sqlsession 之间的缓存数据共享,属于 namespace 级别
    • 二级缓存具有丰富的缓存策略。
    • 二级缓存可由多个装饰器,与基础缓存组合而成
    • 二级缓存工作由 一个缓存装饰执行器 CachingExecutor 和 一个事务型预缓存 TransactionalCache 完成。

    java架构之路-(mybatis源码)mybatis的一二级缓存问题

    java架构之路-(mybatis源码)mybatis的一二级缓存问题

      上次博客我们说了mybatis的基本使用,我们还捎带提到一下Mapper.xml中的select标签的useCache属性,这个就是设置是否存入二级缓存的。

    回到我们正题,经常使用mybatis的小伙伴都知道,我们的mybatis是有两级缓存的,一级缓存默认开启,我们先来一下一级缓存吧,超级简单。
    一级缓存:

    我们还拿上次的源码来说

    package mybatis;
    
    import mybatis.bean.StudentBean;
    import mybatis.dao.StudentMapper;
    import org.apache.ibatis.io.Resources;
    import org.apache.ibatis.session.SqlSession;
    import org.apache.ibatis.session.SqlSessionFactory;
    import org.apache.ibatis.session.SqlSessionFactoryBuilder;
    import org.junit.Before;
    import org.junit.Test;
    
    import java.io.IOException;
    import java.io.InputStream;
    
    public class Test1 {
    
        public SqlSession session;
        public SqlSessionFactory sqlSessionFactory;
    
        @Before
        public void init() throws IOException {
            String resource = "mybatis-config.xml";
            InputStream inputStream = Resources.getResourceAsStream(resource);
            sqlSessionFactory = new SqlSessionFactoryBuilder().build(inputStream);
            session =  sqlSessionFactory.openSession();
        }
    
        @Test
        public void studentTest(){
            StudentMapper mapper = session.getMapper(StudentMapper.class);
            StudentBean result = mapper.selectUser(1);//这句执行了sql,也就是说,这句给一级缓存塞了值
            StudentBean result2 = mapper.selectUser(1);//这句执行了sql,也就是说,这句给一级缓存塞了值
    
            System.out.println(result==result2);
        }
    }

    我们可以看到打印结果为true,说明了命中了我们的一级缓存。

    一级缓存的限制比较多,需要在同一个session,同一个会话,同一个方法(statement),内执行完全相同的sql,才能保证缓存的成功。

    我们打开Mybatis里的BaseExecutor类我们找到152行代码。

    list = resultHandler == null ? (List<E>) localCache.getObject(key) : null;

    这个就是我们的一级缓存localCache。清空方法是在BaseExcutor的116行clearLocalCache,来清空我们的一级缓存的,所以说执行update以后一级缓存会被清空,后面有机会我会告诉大家我是怎么找到的,只要记住一级缓存默认开启,是sqlSession级别的,几乎是没有生命的。然后记住什么情况下可以用,什么情况下不可以用,初级面试应该可以应付。

    二级缓存:

    二级缓存需要手动设置,只要在我们的配置文件内加入Cache标签就可以了。或者加入@Cache注解也是ok的,二级缓存是在session关闭时才写入的。为什么这样设计呢?我们来假想一下,我们开启session,做了一个insert写入,这时还没有提交,然后我们进行了查询,如果这时写入缓存,然后我们将insert进行回滚,那么我们的缓存就多了我们刚才写入的数据,这样的设计是显然不合理的,我们先来看一下二级缓存是怎么设置的。
    谁说查询时候先查二级缓存,二级缓存没有再查一级缓存的,一律打死,一级缓存作用在session会话范围,你二级缓存的存入条件是session关闭,session都关闭了,还有毛线一级缓存了....

    还是上次的代码:我们来回顾一下。

    package mybatis;
    
    import mybatis.bean.StudentBean;
    import mybatis.dao.StudentMapper;
    import org.apache.ibatis.io.Resources;
    import org.apache.ibatis.session.SqlSession;
    import org.apache.ibatis.session.SqlSessionFactory;
    import org.apache.ibatis.session.SqlSessionFactoryBuilder;
    import org.junit.Before;
    import org.junit.Test;
    import java.io.IOException;
    import java.io.InputStream;
    
    public class Test1 {
    
        public SqlSession session;
        public SqlSessionFactory sqlSessionFactory;
    
        @Before
        public void init() throws IOException {
            String resource = "mybatis-config.xml";
            InputStream inputStream = Resources.getResourceAsStream(resource);
            sqlSessionFactory = new SqlSessionFactoryBuilder().build(inputStream);
            session =  sqlSessionFactory.openSession();
        }
    
        @Test
        public void studentTest(){
            StudentMapper mapper = session.getMapper(StudentMapper.class);
            StudentBean result = mapper.selectUser(1);
            session.close();
    
            session = sqlSessionFactory.openSession();
            StudentMapper mapper2 = session.getMapper(StudentMapper.class);
            StudentBean result2 = mapper2.selectUser(1);
            System.out.println(result == result2);
    
        }
    
    }
    <?xml version="1.0" encoding="UTF-8" ?>
    <!DOCTYPE mapper
            PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN"
            "http://mybatis.org/dtd/mybatis-3-mapper.dtd">
    <mapper namespace="mybatis.dao.StudentMapper">
        <cache></cache>
        <select id="selectUser" resultType="mybatis.bean.StudentBean">
            select * from student t where t.id = #{id}
        </select>
    </mapper>

    我们只需要加入cache标签即可以使用我们的二级缓存。select标签内有一个useCache属性设置成false就是说,这个sql不写入我们的缓存。需要注意的是要给予我们的实体Bean序列化,正因为序列化,我们的输入结果是false,说明并不是一个对象的。后面我会解释为什么需要做一个序列化,可以带着问题继续阅读。

     注解方式这样写就ok了。

    package mybatis.dao;
    
    import mybatis.bean.StudentBean;
    import org.apache.ibatis.annotations.CacheNamespace;
    import org.apache.ibatis.annotations.Select;
    
    
    @CacheNamespace
    public interface StudentMapper {
    
        @Select("select * from student t where t.id = #{id}")
        StudentBean selectUser(int id);
    }

    二级缓存适用范围:

    1,必须是session提交以后,二级缓存才写入。

    2,必须是同一个命名空间之下。

    3,必须是相同的sql和参数。

    4,如果是readWrite=true,实体类必须序列化

    @CacheNamespace(readWrite = false)

    这也就是我们说的为什么需要实例化,其实也可以不序列化的。但是我们要是改了其中一个数据,另外一个拿到的数据一定是修改后的,没有特殊需求最好是做一个序列化,不要写readWrite=false的设置,不写readWrite=false会提高一点点性能,但是自我觉得没必要冒那种风险。拿着这段代码自己测试一下,不带序列化的深拷贝对象会造成的结果。

    package mybatis;
    
    import mybatis.bean.StudentBean;
    import mybatis.dao.StudentMapper;
    import org.apache.ibatis.io.Resources;
    import org.apache.ibatis.session.SqlSession;
    import org.apache.ibatis.session.SqlSessionFactory;
    import org.apache.ibatis.session.SqlSessionFactoryBuilder;
    import org.junit.Before;
    import org.junit.Test;
    import java.io.IOException;
    import java.io.InputStream;
    
    public class Test1 {
    
        public SqlSession session;
        public SqlSessionFactory sqlSessionFactory;
    
        @Before
        public void init() throws IOException {
            String resource = "mybatis-config.xml";
            InputStream inputStream = Resources.getResourceAsStream(resource);
            sqlSessionFactory = new SqlSessionFactoryBuilder().build(inputStream);
            session =  sqlSessionFactory.openSession();
        }
    
        @Test
        public void studentTest(){
            StudentMapper mapper = session.getMapper(StudentMapper.class);
            StudentBean result = mapper.selectUser(1);
            System.out.println(result);
            result.setId(2222);
            session.commit();
    
            session = sqlSessionFactory.openSession();
            StudentMapper mapper2 = session.getMapper(StudentMapper.class);
            StudentBean result2 = mapper2.selectUser(1);
            System.out.println(result2);
    
            System.out.println(result == result2);
        }
    }

    5,必须是相同的statement相同的方法。

    内部还可以加很多属性的。

    @CacheNamespace(
    implementation = PerpetualCache.class, // 缓存实现 Cache接口 实现类
    eviction = LruCache.class,// 缓存算法
    flushInterval = 60000, // 刷新间隔时间 毫秒
    size = 1024, // 最大缓存引用对象
    readWrite = true, // 是否可写
    blocking = false // 是否阻塞,防止缓存击穿的。
    )

    我们来简单的深入一下二级缓存的源码,我们在Mybatis的包里会看到这样一个文件,一个叫Cache的文件,也就是我们的缓存文件。

     

     而且我们发现很多叫***Cahe的类都实现了他

     

     TransactionalCache注释里明显的写到The 2nd level cache transactional buffer.二级缓存事务缓冲区。那么我们把断点打在他的get和put方法上,(可能是一个错误的示范,我会一步步告诉你们错了怎么改)

    断点进到了getObject方法,我们点击开右边的参数栏,点击this,我们会看到我们的delegate参数,写着什么什么cache,再次点击还会发现什么什么Cache,直到不能向下点击为止

     

     我们发现貌似实际存储的貌似是PerpetualCache,我们发现我们的错误了,重新来过,清楚断点,打开我们的PerpetualCache类,断点重新打在PerpetualCache类的get和put方法下。我们左侧的方法区,我们看到是这样的

     

     从Perpetualcahe一直查到TransactionalCache,我们来张图解释一下。

     

     大致就是这样的,逐层去寻找的。这里就是一个装饰者模式。

      我们还可以将断点打在CachingExecutor方法的query方法下来观察我们的二级缓存。这个方法在很早就先帮我们把Cache获取好了,且直接获取到SynchronizedCache层了。有兴趣的小伙伴可以自行测试一下,这里我就不再多说了,下次博客我们来具体深入的来看看Mybatis的执行流程,源码级。

    感觉自己现在心中知道怎么去读源码,但是还是说不清楚,不能很好的表达出来,我再改进改进,可能还是看的不够深吧。。。

    最进弄了一个公众号,小菜技术,欢迎大家的加入

     

     

    原文出处:https://www.cnblogs.com/cxiaocai/p/11520735.html

    Mybaits 源码解析 (九)----- 一级缓存和二级缓存源码分析

    Mybaits 源码解析 (九)----- 一级缓存和二级缓存源码分析

    像 Mybatis、Hibernate 这样的 ORM 框架,封装了 JDBC 的大部分操作,极大的简化了我们对数据库的操作。

    在实际项目中,我们发现在一个事务中查询同样的语句两次的时候,第二次没有进行数据库查询,直接返回了结果,实际这种情况我们就可以称为缓存。

    Mybatis 的缓存级别

     一级缓存

    • MyBatis 的一级查询缓存(也叫作本地缓存)是基于 org.apache.ibatis.cache.impl.PerpetualCache 类的 HashMap 本地缓存,其作用域是 SqlSession,myBatis 默认一级查询缓存是开启状态,且不能关闭。
    • 在同一个 SqlSession 中两次执行相同的 sql 查询语句,第一次执行完毕后,会将查询结果写入到缓存中,第二次会从缓存中直接获取数据,而不再到数据库中进行查询,这样就减少了数据库的访问,从而提高查询效率。
    • 基于 PerpetualCache 的 HashMap 本地缓存,其存储作用域为 Session,PerpetualCache 对象是在 SqlSession 中的 Executor 的 localcache 属性当中存放,当 Session flush 或 close 之后,该 Session 中的所有 Cache 就将清空。

    二级缓存

    • 二级缓存与一级缓存其机制相同,默认也是采用 PerpetualCache,HashMap 存储,不同在于其存储作用域为 Mapper (Namespace),每个 Mapper 中有一个 Cache 对象,存放在 Configration 中,并且将其放进当前 Mapper 的所有 MappedStatement 当中,并且可自定义存储源,如 Ehcache。
    • Mapper 级别缓存,定义在 Mapper 文件的 <cache> 标签并需要开启此缓存

    用下面这张图描述一级缓存和二级缓存的关系。

    CacheKey

    在 MyBatis 中,引入缓存的目的是为提高查询效率,降低数据库压力。既然 MyBatis 引入了缓存,那么大家思考过缓存中的 key 和 value 的值分别是什么吗?大家可能很容易能回答出 value 的内容,不就是 SQL 的查询结果吗。那 key 是什么呢?是字符串,还是其他什么对象?如果是字符串的话,那么大家首先能想到的是用 SQL 语句作为 key。但这是不对的,比如:

    SELECT * FROM user where id > ?

    id > 1 和 id > 10 查出来的结果可能是不同的,所以我们不能简单的使用 SQL 语句作为 key。从这里可以看出来,运行时参数将会影响查询结果,因此我们的 key 应该涵盖运行时参数。除此之外呢,如果进行分页查询也会导致查询结果不同,因此 key 也应该涵盖分页参数。综上,我们不能使用简单的 SQL 语句作为 key。应该考虑使用一种复合对象,能涵盖可影响查询结果的因子。在 MyBatis 中,这种复合对象就是 CacheKey。下面来看一下它的定义。

    public class CacheKey implements Cloneable, Serializable {
    
        private static final int DEFAULT_MULTIPLYER = 37;
        private static final int DEFAULT_HASHCODE = 17;
    
        // 乘子,默认为37
        private final int multiplier;
        // CacheKey 的 hashCode,综合了各种影响因子
        private int hashcode;
        // 校验和
        private long checksum;
        // 影响因子个数
        private int count;
        // 影响因子集合
        private List<Object> updateList;
        
        public CacheKey() {
            this.hashcode = DEFAULT_HASHCODE;
            this.multiplier = DEFAULT_MULTIPLYER;
            this.count = 0;
            this.updateList = new ArrayList<Object>();
        }
        
        /** 每当执行更新操作时,表示有新的影响因子参与计算 
         *  当不断有新的影响因子参与计算时,hashcode 和 checksum 将会变得愈发复杂和随机。这样可降低冲突率,使 CacheKey 可在缓存中更均匀的分布。
         */
        public void update(Object object) {
                int baseHashCode = object == null ? 1 : ArrayUtil.hashCode(object);
            // 自增 count
            count++;
            // 计算校验和
            checksum += baseHashCode;
            // 更新 baseHashCode
            baseHashCode *= count;
    
            // 计算 hashCode
            hashcode = multiplier * hashcode + baseHashCode;
    
            // 保存影响因子
            updateList.add(object);
        }
        
        /**
         *  CacheKey 最终要作为键存入 HashMap,因此它需要覆盖 equals 和 hashCode 方法
         */
        public boolean equals(Object object) {
            // 检测是否为同一个对象
            if (this == object) {
                return true;
            }
            // 检测 object 是否为 CacheKey
            if (!(object instanceof CacheKey)) {
                return false;
            }
            final CacheKey cacheKey = (CacheKey) object;
    
            // 检测 hashCode 是否相等
            if (hashcode != cacheKey.hashcode) {
                return false;
            }
            // 检测校验和是否相同
            if (checksum != cacheKey.checksum) {
                return false;
            }
            // 检测 coutn 是否相同
            if (count != cacheKey.count) {
                return false;
            }
    
            // 如果上面的检测都通过了,下面分别对每个影响因子进行比较
            for (int i = 0; i < updateList.size(); i++) {
                Object thisObject = updateList.get(i);
                Object thatObject = cacheKey.updateList.get(i);
                if (!ArrayUtil.equals(thisObject, thatObject)) {
                    return false;
                }
            }
            return true;
        }
    
        public int hashCode() {
            // 返回 hashcode 变量
            return hashcode;
        }
    }

    当不断有新的影响因子参与计算时,hashcode 和 checksum 将会变得愈发复杂和随机。这样可降低冲突率,使 CacheKey 可在缓存中更均匀的分布。CacheKey 最终要作为键存入 HashMap,因此它需要覆盖 equals 和 hashCode 方法。

    一级缓存源码解析

    一级缓存的测试

    同一个 session 查询

    public static void main(String[] args) {
        SqlSession session = sqlSessionFactory.openSession();
        try {
            Blog blog = (Blog)session.selectOne("queryById",1);
            Blog blog2 = (Blog)session.selectOne("queryById",1);
        } finally {
            session.close();
        }
    }

    结论:只有一个 DB 查询

    两个 session 分别查询

    public static void main(String[] args) {
        SqlSession session = sqlSessionFactory.openSession();
        SqlSession session1 = sqlSessionFactory.openSession();
        try {
            Blog blog = (Blog)session.selectOne("queryById",17);
            Blog blog2 = (Blog)session1.selectOne("queryById",17);
        } finally {
            session.close();
        }
    }

     结论:进行了两次 DB 查询

    同一个 session,进行 update 之后再次查询

    public static void main(String[] args) {
        SqlSession session = sqlSessionFactory.openSession();
        try {
            Blog blog = (Blog)session.selectOne("queryById",17);
            blog.setName("llll");
            session.update("updateBlog",blog);
            
            Blog blog2 = (Blog)session.selectOne("queryById",17);
        } finally {
            session.close();
        }
    }

    结论:进行了两次 DB 查询

    总结:在一级缓存中,同一个 SqlSession 下,查询语句相同的 SQL 会被缓存,如果执行增删改操作之后,该缓存就会被删除

    创建缓存对象 PerpetualCache

    我们来回顾一下创建 SqlSession 的过程

    SqlSession session = sessionFactory.openSession();
    
    public SqlSession openSession() {
        return this.openSessionFromDataSource(this.configuration.getDefaultExecutorType(), (TransactionIsolationLevel)null, false);
    }
    
    private SqlSession openSessionFromDataSource(ExecutorType execType, TransactionIsolationLevel level, boolean autoCommit) {
        Transaction tx = null;
    
        DefaultSqlSession var8;
        try {
            Environment environment = this.configuration.getEnvironment();
            TransactionFactory transactionFactory = this.getTransactionFactoryFromEnvironment(environment);
            tx = transactionFactory.newTransaction(environment.getDataSource(), level, autoCommit);
            //创建SQL执行器
            Executor executor = this.configuration.newExecutor(tx, execType);
            var8 = new DefaultSqlSession(this.configuration, executor, autoCommit);
        } catch (Exception var12) {
            this.closeTransaction(tx);
            throw ExceptionFactory.wrapException("Error opening session.  Cause: " + var12, var12);
        } finally {
            ErrorContext.instance().reset();
        }
    
        return var8;
    }
    
    public Executor newExecutor(Transaction transaction, ExecutorType executorType) {
        executorType = executorType == null ? this.defaultExecutorType : executorType;
        executorType = executorType == null ? ExecutorType.SIMPLE : executorType;
        Object executor;
        if (ExecutorType.BATCH == executorType) {
            executor = new BatchExecutor(this, transaction);
        } else if (ExecutorType.REUSE == executorType) {
            executor = new ReuseExecutor(this, transaction);
        } else {
            //默认创建SimpleExecutor
            executor = new SimpleExecutor(this, transaction);
        }
    
        if (this.cacheEnabled) {
            //开启二级缓存就会用CachingExecutor装饰SimpleExecutor
            executor = new CachingExecutor((Executor)executor);
        }
    
        Executor executor = (Executor)this.interceptorChain.pluginAll(executor);
        return executor;
    }
    
    public SimpleExecutor(Configuration configuration, Transaction transaction) {
        super(configuration, transaction);
    }
    
    protected BaseExecutor(Configuration configuration, Transaction transaction) {
        this.transaction = transaction;
        this.deferredLoads = new ConcurrentLinkedQueue();
        //创建一个缓存对象,PerpetualCache并不是线程安全的
        //但SqlSession和Executor对象在通常情况下只能有一个线程访问,而且访问完成之后马上销毁。也就是session.close();
        this.localCache = new PerpetualCache("LocalCache");
        this.localOutputParameterCache = new PerpetualCache("LocalOutputParameterCache");
        this.closed = false;
        this.configuration = configuration;
        this.wrapper = this;
    }

    我只是简单的贴了代码,大家可以看我之前的博客,我们可以看到 DefaultSqlSession 中有 SimpleExecutor 对象,SimpleExecutor 对象中有一个 PerpetualCache,一级缓存的数据就是存储在 PerpetualCache 对象中,SqlSession 关闭的时候会清空 PerpetualCache

    一级缓存实现

    再来看 BaseExecutor 中的 query 方法是怎么实现一级缓存的,executor 默认实现为 CachingExecutor

    CachingExecutor

    public <E> List<E> query(MappedStatement ms, Object parameter, RowBounds rowBounds, ResultHandler resultHandler) throws SQLException {
        BoundSql boundSql = ms.getBoundSql(parameter);
        //利用sql和执行的参数生成一个key,如果同一sql不同的执行参数的话,将会生成不同的key
        CacheKey key = createCacheKey(ms, parameter, rowBounds, boundSql);
        return query(ms, parameter, rowBounds, resultHandler, key, boundSql);
    }
    
    @Override
    public <E> List<E> query(MappedStatement ms, Object parameterObject, RowBounds rowBounds, ResultHandler resultHandler, CacheKey key, BoundSql boundSql)
        throws SQLException {
        // 这里是二级缓存的查询,我们暂且不看
        Cache cache = ms.getCache();
        if (cache != null) {
            flushCacheIfRequired(ms);
            if (ms.isUseCache() && resultHandler == null) {
                ensureNoOutParams(ms, parameterObject, boundSql);
                @SuppressWarnings("unchecked")
                List<E> list = (List<E>) tcm.getObject(cache, key);
                if (list == null) {
                    list = delegate.<E> query(ms, parameterObject, rowBounds, resultHandler, key, boundSql);
                    tcm.putObject(cache, key, list); // issue #578 and #116
                }
                return list;
            }
        }
        
        // 直接来到这里
        // 实现为BaseExecutor.query()
        return delegate.<E> query(ms, parameterObject, rowBounds, resultHandler, key, boundSql);
    }

    如上,在访问一级缓存之前,MyBatis 首先会调用 createCacheKey 方法创建 CacheKey。下面我们来看一下 createCacheKey 方法的逻辑:

    public CacheKey createCacheKey(MappedStatement ms, Object parameterObject, RowBounds rowBounds, BoundSql boundSql) {
        if (closed) {
            throw new ExecutorException("Executor was closed.");
        }
        // 创建 CacheKey 对象
        CacheKey cacheKey = new CacheKey();
        // 将 MappedStatement 的 id 作为影响因子进行计算
        cacheKey.update(ms.getId());
        // RowBounds 用于分页查询,下面将它的两个字段作为影响因子进行计算
        cacheKey.update(rowBounds.getOffset());
        cacheKey.update(rowBounds.getLimit());
        // 获取 sql 语句,并进行计算
        cacheKey.update(boundSql.getSql());
        List<ParameterMapping> parameterMappings = boundSql.getParameterMappings();
        TypeHandlerRegistry typeHandlerRegistry = ms.getConfiguration().getTypeHandlerRegistry();
        for (ParameterMapping parameterMapping : parameterMappings) {
            if (parameterMapping.getMode() != ParameterMode.OUT) {
                // 运行时参数
                Object value;    
                // 当前大段代码用于获取 SQL 中的占位符 #{xxx} 对应的运行时参数,
                // 前文有类似分析,这里忽略了
                String propertyName = parameterMapping.getProperty();
                if (boundSql.hasAdditionalParameter(propertyName)) {
                    value = boundSql.getAdditionalParameter(propertyName);
                } else if (parameterObject == null) {
                    value = null;
                } else if (typeHandlerRegistry.hasTypeHandler(parameterObject.getClass())) {
                    value = parameterObject;
                } else {
                    MetaObject metaObject = configuration.newMetaObject(parameterObject);
                    value = metaObject.getValue(propertyName);
                }
                
                // 让运行时参数参与计算
                cacheKey.update(value);
            }
        }
        if (configuration.getEnvironment() != null) {
            // 获取 Environment id 遍历,并让其参与计算
            cacheKey.update(configuration.getEnvironment().getId());
        }
        return cacheKey;
    }

    如上,在计算 CacheKey 的过程中,有很多影响因子参与了计算。比如 MappedStatement 的 id 字段,SQL 语句,分页参数,运行时变量,Environment 的 id 字段等。通过让这些影响因子参与计算,可以很好的区分不同查询请求。所以,我们可以简单的把 CacheKey 看做是一个查询请求的 id。有了 CacheKey,我们就可以使用它读写缓存了。

    SimpleExecutor(BaseExecutor)

    @SuppressWarnings("unchecked")
    @Override
    public <E> List<E> query(MappedStatement ms, Object parameter, RowBounds rowBounds, ResultHandler resultHandler, CacheKey key, BoundSql boundSql) throws SQLException {
        ErrorContext.instance().resource(ms.getResource()).activity("executing a query").object(ms.getId());
        if (closed) {
            throw new ExecutorException("Executor was closed.");
        }
        if (queryStack == 0 && ms.isFlushCacheRequired()) {
            clearLocalCache();
        }
        List<E> list;
        try {
            queryStack++;
            // 看这里,先从localCache中获取对应CacheKey的结果值
            list = resultHandler == null ? (List<E>) localCache.getObject(key) : null;
            if (list != null) {
                handleLocallyCachedOutputParameters(ms, key, parameter, boundSql);
            } else {
                // 如果缓存中没有值,则从DB中查询
                list = queryFromDatabase(ms, parameter, rowBounds, resultHandler, key, boundSql);
            }
        } finally {
            queryStack--;
        }
        if (queryStack == 0) {
            for (DeferredLoad deferredLoad : deferredLoads) {
                deferredLoad.load();
            }
            deferredLoads.clear();
            if (configuration.getLocalCacheScope() == LocalCacheScope.STATEMENT) {
                clearLocalCache();
            }
        }
        return list;
    }

    BaseExecutor.queryFromDatabase()

    我们先来看下这种缓存中没有值的情况,看一下查询后的结果是如何被放置到缓存中的

    private <E> List<E> queryFromDatabase(MappedStatement ms, Object parameter, RowBounds rowBounds, ResultHandler resultHandler, CacheKey key, BoundSql boundSql) throws SQLException {
        List<E> list;
        localCache.putObject(key, EXECUTION_PLACEHOLDER);
        try {
            // 1.执行查询,获取list
            list = doQuery(ms, parameter, rowBounds, resultHandler, boundSql);
        } finally {
            localCache.removeObject(key);
        }
        // 2.将查询后的结果放置到localCache中,key就是我们刚才封装的CacheKey,value就是从DB中查询到的list
        localCache.putObject(key, list);
        if (ms.getStatementType() == StatementType.CALLABLE) {
            localOutputParameterCache.putObject(key, parameter);
        }
        return list;
    }

    我们来看看 localCache.putObject(key, list);

    PerpetualCache

    PerpetualCache 是一级缓存使用的缓存类,内部使用了 HashMap 实现缓存功能。它的源码如下:

    public class PerpetualCache implements Cache {
    
        private final String id;
    
        private Map<Object, Object> cache = new HashMap<Object, Object>();
    
        public PerpetualCache(String id) {
            this.id = id;
        }
    
        @Override
        public String getId() {
            return id;
        }
    
        @Override
        public int getSize() {
            return cache.size();
        }
    
        @Override
        public void putObject(Object key, Object value) {
            // 存储键值对到 HashMap
            cache.put(key, value);
        }
    
        @Override
        public Object getObject(Object key) {
            // 查找缓存项
            return cache.get(key);
        }
    
        @Override
        public Object removeObject(Object key) {
            // 移除缓存项
            return cache.remove(key);
        }
    
        @Override
        public void clear() {
            cache.clear();
        }
        
        // 省略部分代码
    }

    总结:可以看到 localCache 本质上就是一个 Map,key 为我们的 CacheKey,value 为我们的结果值,是不是很简单,只是封装了一个 Map 而已。

    清除缓存

    SqlSession.update()

    当我们进行更新操作时,会执行如下代码

    @Override
    public int update(MappedStatement ms, Object parameter) throws SQLException {
        ErrorContext.instance().resource(ms.getResource()).activity("executing an update").object(ms.getId());
        if (closed) {
            throw new ExecutorException("Executor was closed.");
        }
        //每次执行update/insert/delete语句时都会清除一级缓存。
        clearLocalCache();
        // 然后再进行更新操作
        return doUpdate(ms, parameter);
    }
     
    @Override
    public void clearLocalCache() {
        if (!closed) {
            // 直接将Map清空
            localCache.clear();
            localOutputParameterCache.clear();
        }
    }

    session.close();

    //DefaultSqlSession
    public void close() {
        try {
            this.executor.close(this.isCommitOrRollbackRequired(false));
            this.closeCursors();
            this.dirty = false;
        } finally {
            ErrorContext.instance().reset();
        }
    
    }
    
    //BaseExecutor
    public void close(boolean forceRollback) {
        try {
            try {
                this.rollback(forceRollback);
            } finally {
                if (this.transaction != null) {
                    this.transaction.close();
                }
    
            }
        } catch (SQLException var11) {
            log.warn("Unexpected exception on closing transaction.  Cause: " + var11);
        } finally {
            this.transaction = null;
            this.deferredLoads = null;
            this.localCache = null;
            this.localOutputParameterCache = null;
            this.closed = true;
        }
    
    }
    
    public void rollback(boolean required) throws SQLException {
        if (!this.closed) {
            try {
                this.clearLocalCache();
                this.flushStatements(true);
            } finally {
                if (required) {
                    this.transaction.rollback();
                }
    
            }
        }
    
    }
    
    public void clearLocalCache() {
        if (!this.closed) {
            // 直接将Map清空
            this.localCache.clear();
            this.localOutputParameterCache.clear();
        }
    }

    当关闭 SqlSession 时,也会清楚 SqlSession 中的一级缓存

    总结

    1. 一级缓存只在同一个 SqlSession 中共享数据
    2. 在同一个 SqlSession 对象执行相同的 sql 并参数也要相同,缓存才有效。
    3. 如果在 SqlSession 中执行 update/insert/detete 语句或者 session.close(); 的话,SqlSession 中的 executor 对象会将一级缓存清空。

    二级缓存源码解析

    二级缓存构建在一级缓存之上,在收到查询请求时,MyBatis 首先会查询二级缓存。若二级缓存未命中,再去查询一级缓存。与一级缓存不同,二级缓存和具体的命名空间绑定,一个 Mapper 中有一个 Cache,相同 Mapper 中的 MappedStatement 公用一个 Cache,一级缓存则是和 SqlSession 绑定。一级缓存不存在并发问题二级缓存可在多个命名空间间共享,这种情况下,会存在并发问题,比喻多个不同的 SqlSession 会同时执行相同的 SQL 语句,参数也相同,那么 CacheKey 是相同的,就会造成多个线程并发访问相同 CacheKey 的值,下面首先来看一下访问二级缓存的逻辑。

    二级缓存的测试

    二级缓存需要在 Mapper.xml 中配置 <cache/> 标签

    <?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" 
    "http://mybatis.org/dtd/mybatis-3-mapper.dtd">
     
    <mapper namespace="mybatis.BlogMapper">
        <select id="queryById" parameterType="int" resultType="jdbc.Blog">
            select * from blog where id = #{id}
        </select>
        <update id="updateBlog" parameterType="jdbc.Blog">
            update Blog set name = #{name},url = #{url} where id=#{id}
        </update>
        <!-- 开启BlogMapper二级缓存 -->
        <cache/>
    </mapper>

    不同的 session 进行相同的查询

    public static void main(String[] args) {
        SqlSession session = sqlSessionFactory.openSession();
        SqlSession session1 = sqlSessionFactory.openSession();
        try {
            Blog blog = (Blog)session.selectOne("queryById",17);
            Blog blog2 = (Blog)session1.selectOne("queryById",17);
        } finally {
            session.close();
        }
    }

    结论:执行两次 DB 查询

    第一个 session 查询完成之后,手动提交,在执行第二个 session 查询

    public static void main(String[] args) {
        SqlSession session = sqlSessionFactory.openSession();
        SqlSession session1 = sqlSessionFactory.openSession();
        try {
            Blog blog = (Blog)session.selectOne("queryById",17);
            session.commit();
     
            Blog blog2 = (Blog)session1.selectOne("queryById",17);
        } finally {
            session.close();
        }
    }

    结论:执行一次 DB 查询

    第一个 session 查询完成之后,手动关闭,在执行第二个 session 查询

    public static void main(String[] args) {
        SqlSession session = sqlSessionFactory.openSession();
        SqlSession session1 = sqlSessionFactory.openSession();
        try {
            Blog blog = (Blog)session.selectOne("queryById",17);
            session.close();
     
            Blog blog2 = (Blog)session1.selectOne("queryById",17);
        } finally {
            session.close();
        }
    }

    结论:执行一次 DB 查询

    总结:二级缓存的生效必须在 session 提交或关闭之后才会生效

    标签 <cache/> 的解析

    按照之前的对 Mybatis 的分析,对 blog.xml 的解析工作主要交给 XMLConfigBuilder.parse () 方法来实现的

     1 // XMLConfigBuilder.parse()
     2 public Configuration parse() {
     3     if (parsed) {
     4         throw new BuilderException("Each XMLConfigBuilder can only be used once.");
     5     }
     6     parsed = true;
     7     parseConfiguration(parser.evalNode("/configuration"));// 在这里
     8     return configuration;
     9 }
    10  
    11 // parseConfiguration()
    12 // 既然是在blog.xml中添加的,那么我们就直接看关于mappers标签的解析
    13 private void parseConfiguration(XNode root) {
    14     try {
    15         Properties settings = settingsAsPropertiess(root.evalNode("settings"));
    16         propertiesElement(root.evalNode("properties"));
    17         loadCustomVfs(settings);
    18         typeAliasesElement(root.evalNode("typeAliases"));
    19         pluginElement(root.evalNode("plugins"));
    20         objectFactoryElement(root.evalNode("objectFactory"));
    21         objectWrapperFactoryElement(root.evalNode("objectWrapperFactory"));
    22         reflectionFactoryElement(root.evalNode("reflectionFactory"));
    23         settingsElement(settings);
    24         // read it after objectFactory and objectWrapperFactory issue #631
    25         environmentsElement(root.evalNode("environments"));
    26         databaseIdProviderElement(root.evalNode("databaseIdProvider"));
    27         typeHandlerElement(root.evalNode("typeHandlers"));
    28         // 就是这里
    29         mapperElement(root.evalNode("mappers"));
    30     } catch (Exception e) {
    31         throw new BuilderException("Error parsing SQL Mapper Configuration. Cause: " + e, e);
    32     }
    33 }
    34 
    35 
    36 // mapperElement()
    37 private void mapperElement(XNode parent) throws Exception {
    38     if (parent != null) {
    39         for (XNode child : parent.getChildren()) {
    40             if ("package".equals(child.getName())) {
    41                 String mapperPackage = child.getStringAttribute("name");
    42                 configuration.addMappers(mapperPackage);
    43             } else {
    44                 String resource = child.getStringAttribute("resource");
    45                 String url = child.getStringAttribute("url");
    46                 String mapperClass = child.getStringAttribute("class");
    47                 // 按照我们本例的配置,则直接走该if判断
    48                 if (resource != null && url == null && mapperClass == null) {
    49                     ErrorContext.instance().resource(resource);
    50                     InputStream inputStream = Resources.getResourceAsStream(resource);
    51                     XMLMapperBuilder mapperParser = new XMLMapperBuilder(inputStream, configuration, resource, configuration.getSqlFragments());
    52                     // 生成XMLMapperBuilder,并执行其parse方法
    53                     mapperParser.parse();
    54                 } else if (resource == null && url != null && mapperClass == null) {
    55                     ErrorContext.instance().resource(url);
    56                     InputStream inputStream = Resources.getUrlAsStream(url);
    57                     XMLMapperBuilder mapperParser = new XMLMapperBuilder(inputStream, configuration, url, configuration.getSqlFragments());
    58                     mapperParser.parse();
    59                 } else if (resource == null && url == null && mapperClass != null) {
    60                     Class<?> mapperInterface = Resources.classForName(mapperClass);
    61                     configuration.addMapper(mapperInterface);
    62                 } else {
    63                     throw new BuilderException("A mapper element may only specify a url, resource or class, but not more than one.");
    64                 }
    65             }
    66         }
    67     }
    68 }
    View Code

    我们来看看解析 Mapper.xml

    // XMLMapperBuilder.parse()
    public void parse() {
        if (!configuration.isResourceLoaded(resource)) {
            // 解析mapper属性
            configurationElement(parser.evalNode("/mapper"));
            configuration.addLoadedResource(resource);
            bindMapperForNamespace();
        }
     
        parsePendingResultMaps();
        parsePendingChacheRefs();
        parsePendingStatements();
    }
     
    // configurationElement()
    private void configurationElement(XNode context) {
        try {
            String namespace = context.getStringAttribute("namespace");
            if (namespace == null || namespace.equals("")) {
                throw new BuilderException("Mapper''s namespace cannot be empty");
            }
            builderAssistant.setCurrentNamespace(namespace);
            cacheRefElement(context.evalNode("cache-ref"));
            // 最终在这里看到了关于cache属性的处理
            cacheElement(context.evalNode("cache"));
            parameterMapElement(context.evalNodes("/mapper/parameterMap"));
            resultMapElements(context.evalNodes("/mapper/resultMap"));
            sqlElement(context.evalNodes("/mapper/sql"));
            // 这里会将生成的Cache包装到对应的MappedStatement
            buildStatementFromContext(context.evalNodes("select|insert|update|delete"));
        } catch (Exception e) {
            throw new BuilderException("Error parsing Mapper XML. Cause: " + e, e);
        }
    }
     
    // cacheElement()
    private void cacheElement(XNode context) throws Exception {
        if (context != null) {
            //解析<cache/>标签的type属性,这里我们可以自定义cache的实现类,比如redisCache,如果没有自定义,这里使用和一级缓存相同的PERPETUAL
            String type = context.getStringAttribute("type", "PERPETUAL");
            Class<? extends Cache> typeClass = typeAliasRegistry.resolveAlias(type);
            String eviction = context.getStringAttribute("eviction", "LRU");
            Class<? extends Cache> evictionClass = typeAliasRegistry.resolveAlias(eviction);
            Long flushInterval = context.getLongAttribute("flushInterval");
            Integer size = context.getIntAttribute("size");
            boolean readWrite = !context.getBooleanAttribute("readOnly", false);
            boolean blocking = context.getBooleanAttribute("blocking", false);
            Properties props = context.getChildrenAsProperties();
            // 构建Cache对象
            builderAssistant.useNewCache(typeClass, evictionClass, flushInterval, size, readWrite, blocking, props);
        }
    }

    先来看看是如何构建 Cache 对象的

    MapperBuilderAssistant.useNewCache()

    public Cache useNewCache(Class<? extends Cache> typeClass,
                             Class<? extends Cache> evictionClass,
                             Long flushInterval,
                             Integer size,
                             boolean readWrite,
                             boolean blocking,
                             Properties props) {
        // 1.生成Cache对象
        Cache cache = new CacheBuilder(currentNamespace)
             //这里如果我们定义了<cache/>中的type,就使用自定义的Cache,否则使用和一级缓存相同的PerpetualCache
            .implementation(valueOrDefault(typeClass, PerpetualCache.class))
            .addDecorator(valueOrDefault(evictionClass, LruCache.class))
            .clearInterval(flushInterval)
            .size(size)
            .readWrite(readWrite)
            .blocking(blocking)
            .properties(props)
            .build();
        // 2.添加到Configuration中
        configuration.addCache(cache);
        // 3.并将cache赋值给MapperBuilderAssistant.currentCache
        currentCache = cache;
        return cache;
    }

    我们看到一个 Mapper.xml 只会解析一次 <cache/> 标签,也就是只创建一次 Cache 对象,放进 configuration 中,并将 cache 赋值给 MapperBuilderAssistant.currentCache

    buildStatementFromContext (context.evalNodes ("select|insert|update|delete")); 将 Cache 包装到 MappedStatement

    // buildStatementFromContext()
    private void buildStatementFromContext(List<XNode> list) {
        if (configuration.getDatabaseId() != null) {
            buildStatementFromContext(list, configuration.getDatabaseId());
        }
        buildStatementFromContext(list, null);
    }
     
    //buildStatementFromContext()
    private void buildStatementFromContext(List<XNode> list, String requiredDatabaseId) {
        for (XNode context : list) {
            final XMLStatementBuilder statementParser = new XMLStatementBuilder(configuration, builderAssistant, context, requiredDatabaseId);
            try {
                // 每一条执行语句转换成一个MappedStatement
                statementParser.parseStatementNode();
            } catch (IncompleteElementException e) {
                configuration.addIncompleteStatement(statementParser);
            }
        }
    }
     
    // XMLStatementBuilder.parseStatementNode();
    public void parseStatementNode() {
        String id = context.getStringAttribute("id");
        String databaseId = context.getStringAttribute("databaseId");
        ...
     
        Integer fetchSize = context.getIntAttribute("fetchSize");
        Integer timeout = context.getIntAttribute("timeout");
        String parameterMap = context.getStringAttribute("parameterMap");
        String parameterType = context.getStringAttribute("parameterType");
        Class<?> parameterTypeClass = resolveClass(parameterType);
        String resultMap = context.getStringAttribute("resultMap");
        String resultType = context.getStringAttribute("resultType");
        String lang = context.getStringAttribute("lang");
        LanguageDriver langDriver = getLanguageDriver(lang);
     
        ...
        // 创建MappedStatement对象
        builderAssistant.addMappedStatement(id, sqlSource, statementType, sqlCommandType,
                                            fetchSize, timeout, parameterMap, parameterTypeClass, resultMap, resultTypeClass,
                                            resultSetTypeEnum, flushCache, useCache, resultOrdered, 
                                            keyGenerator, keyProperty, keyColumn, databaseId, langDriver, resultSets);
    }
     
    // builderAssistant.addMappedStatement()
    public MappedStatement addMappedStatement(
        String id,
        ...) {
     
        if (unresolvedCacheRef) {
            throw new IncompleteElementException("Cache-ref not yet resolved");
        }
     
        id = applyCurrentNamespace(id, false);
        boolean isSelect = sqlCommandType == SqlCommandType.SELECT;
        //创建MappedStatement对象
        MappedStatement.Builder statementBuilder = new MappedStatement.Builder(configuration, id, sqlSource, sqlCommandType)
            ...
            .flushCacheRequired(valueOrDefault(flushCache, !isSelect))
            .useCache(valueOrDefault(useCache, isSelect))
            .cache(currentCache);// 在这里将之前生成的Cache封装到MappedStatement
     
        ParameterMap statementParameterMap = getStatementParameterMap(parameterMap, parameterType, id);
        if (statementParameterMap != null) {
            statementBuilder.parameterMap(statementParameterMap);
        }
     
        MappedStatement statement = statementBuilder.build();
        configuration.addMappedStatement(statement);
        return statement;
    }

    我们看到将 Mapper 中创建的 Cache 对象,加入到了每个 MappedStatement 对象中,也就是同一个 Mapper 中所有的 MappedStatement 中的 cache 属性引用是同一个

    有关于 <cache/> 标签的解析就到这了。

    查询源码分析

    CachingExecutor

    // CachingExecutor
    public <E> List<E> query(MappedStatement ms, Object parameterObject, RowBounds rowBounds, ResultHandler resultHandler) throws SQLException {
        BoundSql boundSql = ms.getBoundSql(parameterObject);
        // 创建 CacheKey
        CacheKey key = createCacheKey(ms, parameterObject, rowBounds, boundSql);
        return query(ms, parameterObject, rowBounds, resultHandler, key, boundSql);
    }
    
    public <E> List<E> query(MappedStatement ms, Object parameterObject, RowBounds rowBounds, ResultHandler resultHandler, CacheKey key, BoundSql boundSql)
        throws SQLException {
        // 从 MappedStatement 中获取 Cache,注意这里的 Cache 是从MappedStatement中获取的
        // 也就是我们上面解析Mapper中<cache/>标签中创建的,它保存在Configration中
        // 我们在上面解析blog.xml时分析过每一个MappedStatement都有一个Cache对象,就是这里
        Cache cache = ms.getCache();
        // 如果配置文件中没有配置 <cache>,则 cache 为空
        if (cache != null) {
            //如果需要刷新缓存的话就刷新:flushCache="true"
            flushCacheIfRequired(ms);
            if (ms.isUseCache() && resultHandler == null) {
                ensureNoOutParams(ms, boundSql);
                // 访问二级缓存
                List<E> list = (List<E>) tcm.getObject(cache, key);
                // 缓存未命中
                if (list == null) {
                    // 如果没有值,则执行查询,这个查询实际也是先走一级缓存查询,一级缓存也没有的话,则进行DB查询
                    list = delegate.<E>query(ms, parameterObject, rowBounds, resultHandler, key, boundSql);
                    // 缓存查询结果
                    tcm.putObject(cache, key, list);
                }
                return list;
            }
        }
        return delegate.<E>query(ms, parameterObject, rowBounds, resultHandler, key, boundSql);
    }

    如果设置了 flushCache="true",则每次查询都会刷新缓存

    <!-- 执行此语句清空缓存 -->
    <select id="getAll" resultType="entity.TDemo" useCache="true" flushCache="true" >
        select * from t_demo
    </select>

    如上,注意二级缓存是从 MappedStatement 中获取的。由于 MappedStatement 存在于全局配置中,可以多个 CachingExecutor 获取到,这样就会出现线程安全问题。除此之外,若不加以控制,多个事务共用一个缓存实例,会导致脏读问题。至于脏读问题,需要借助其他类来处理,也就是上面代码中 tcm 变量对应的类型。下面分析一下。

    TransactionalCacheManager

    /** 事务缓存管理器 */
    public class TransactionalCacheManager {
    
        // Cache 与 TransactionalCache 的映射关系表
        private final Map<Cache, TransactionalCache> transactionalCaches = new HashMap<Cache, TransactionalCache>();
    
        public void clear(Cache cache) {
            // 获取 TransactionalCache 对象,并调用该对象的 clear 方法,下同
            getTransactionalCache(cache).clear();
        }
    
        public Object getObject(Cache cache, CacheKey key) {
            // 直接从TransactionalCache中获取缓存
            return getTransactionalCache(cache).getObject(key);
        }
    
        public void putObject(Cache cache, CacheKey key, Object value) {
            // 直接存入TransactionalCache的缓存中
            getTransactionalCache(cache).putObject(key, value);
        }
    
        public void commit() {
            for (TransactionalCache txCache : transactionalCaches.values()) {
                txCache.commit();
            }
        }
    
        public void rollback() {
            for (TransactionalCache txCache : transactionalCaches.values()) {
                txCache.rollback();
            }
        }
    
        private TransactionalCache getTransactionalCache(Cache cache) {
            // 从映射表中获取 TransactionalCache
            TransactionalCache txCache = transactionalCaches.get(cache);
            if (txCache == null) {
                // TransactionalCache 也是一种装饰类,为 Cache 增加事务功能
                // 创建一个新的TransactionalCache,并将真正的Cache对象存进去
                txCache = new TransactionalCache(cache);
                transactionalCaches.put(cache, txCache);
            }
            return txCache;
        }
    }

    TransactionalCacheManager 内部维护了 Cache 实例与 TransactionalCache 实例间的映射关系,该类也仅负责维护两者的映射关系,真正做事的还是 TransactionalCache。TransactionalCache 是一种缓存装饰器,可以为 Cache 实例增加事务功能。我在之前提到的脏读问题正是由该类进行处理的。下面分析一下该类的逻辑。

    TransactionalCache

    public class TransactionalCache implements Cache {
        //真正的缓存对象,和上面的Map<Cache, TransactionalCache>中的Cache是同一个
        private final Cache delegate;
        private boolean clearOnCommit;
        // 在事务被提交前,所有从数据库中查询的结果将缓存在此集合中
        private final Map<Object, Object> entriesToAddOnCommit;
        // 在事务被提交前,当缓存未命中时,CacheKey 将会被存储在此集合中
        private final Set<Object> entriesMissedInCache;
    
    
        @Override
        public Object getObject(Object key) {
            // 查询的时候是直接从delegate中去查询的,也就是从真正的缓存对象中查询
            Object object = delegate.getObject(key);
            if (object == null) {
                // 缓存未命中,则将 key 存入到 entriesMissedInCache 中
                entriesMissedInCache.add(key);
            }
    
            if (clearOnCommit) {
                return null;
            } else {
                return object;
            }
        }
    
        @Override
        public void putObject(Object key, Object object) {
            // 将键值对存入到 entriesToAddOnCommit 这个Map中中,而非真实的缓存对象 delegate 中
            entriesToAddOnCommit.put(key, object);
        }
    
        @Override
        public Object removeObject(Object key) {
            return null;
        }
    
        @Override
        public void clear() {
            clearOnCommit = true;
            // 清空 entriesToAddOnCommit,但不清空 delegate 缓存
            entriesToAddOnCommit.clear();
        }
    
        public void commit() {
            // 根据 clearOnCommit 的值决定是否清空 delegate
            if (clearOnCommit) {
                delegate.clear();
            }
            
            // 刷新未缓存的结果到 delegate 缓存中
            flushPendingEntries();
            // 重置 entriesToAddOnCommit 和 entriesMissedInCache
            reset();
        }
    
        public void rollback() {
            unlockMissedEntries();
            reset();
        }
    
        private void reset() {
            clearOnCommit = false;
            // 清空集合
            entriesToAddOnCommit.clear();
            entriesMissedInCache.clear();
        }
    
        private void flushPendingEntries() {
            for (Map.Entry<Object, Object> entry : entriesToAddOnCommit.entrySet()) {
                // 将 entriesToAddOnCommit 中的内容转存到 delegate 中
                delegate.putObject(entry.getKey(), entry.getValue());
            }
            for (Object entry : entriesMissedInCache) {
                if (!entriesToAddOnCommit.containsKey(entry)) {
                    // 存入空值
                    delegate.putObject(entry, null);
                }
            }
        }
    
        private void unlockMissedEntries() {
            for (Object entry : entriesMissedInCache) {
                try {
                    // 调用 removeObject 进行解锁
                    delegate.removeObject(entry);
                } catch (Exception e) {
                    log.warn("...");
                }
            }
        }
    
    }

    存储二级缓存对象的时候是放到了 TransactionalCache.entriesToAddOnCommit 这个 map 中,但是每次查询的时候是直接从 TransactionalCache.delegate 中去查询的,所以这个二级缓存查询数据库后,设置缓存值是没有立刻生效的,主要是因为直接存到 delegate 会导致脏数据问题。

    为何只有 SqlSession 提交或关闭之后二级缓存才会生效?

    那我们来看下 SqlSession.commit () 方法做了什么

    SqlSession

    @Override
    public void commit(boolean force) {
        try {
            // 主要是这句
            executor.commit(isCommitOrRollbackRequired(force));
            dirty = false;
        } catch (Exception e) {
            throw ExceptionFactory.wrapException("Error committing transaction.  Cause: " + e, e);
        } finally {
            ErrorContext.instance().reset();
        }
    }
     
    // CachingExecutor.commit()
    @Override
    public void commit(boolean required) throws SQLException {
        delegate.commit(required);
        tcm.commit();// 在这里
    }
     
    // TransactionalCacheManager.commit()
    public void commit() {
        for (TransactionalCache txCache : transactionalCaches.values()) {
            txCache.commit();// 在这里
        }
    }
     
    // TransactionalCache.commit()
    public void commit() {
        if (clearOnCommit) {
            delegate.clear();
        }
        flushPendingEntries();//这一句
        reset();
    }
     
    // TransactionalCache.flushPendingEntries()
    private void flushPendingEntries() {
        for (Map.Entry<Object, Object> entry : entriesToAddOnCommit.entrySet()) {
            // 在这里真正的将entriesToAddOnCommit的对象逐个添加到delegate中,只有这时,二级缓存才真正的生效
            delegate.putObject(entry.getKey(), entry.getValue());
        }
        for (Object entry : entriesMissedInCache) {
            if (!entriesToAddOnCommit.containsKey(entry)) {
                delegate.putObject(entry, null);
            }
        }
    }

    如果从数据库查询到的数据直接存到 delegate 会导致脏数据问题。下面通过一张图演示一下脏数据问题发生的过程,假设两个线程开启两个不同的事务,它们的执行过程如下:

    如上图,时刻 2,事务 A 对记录 A 进行了更新。时刻 3,事务 A 从数据库查询记录 A,并将记录 A 写入缓存中。时刻 4,事务 B 查询记录 A,由于缓存中存在记录 A,事务 B 直接从缓存中取数据。这个时候,脏数据问题就发生了。事务 B 在事务 A 未提交情况下,读取到了事务 A 所修改的记录。为了解决这个问题,我们可以为每个事务引入一个独立的缓存。查询数据时,仍从 delegate 缓存(以下统称为共享缓存)中查询。若缓存未命中,则查询数据库。存储查询结果时,并不直接存储查询结果到共享缓存中,而是先存储到事务缓存中,也就是 entriesToAddOnCommit 集合。当事务提交时,再将事务缓存中的缓存项转存到共享缓存中。这样,事务 B 只能在事务 A 提交后,才能读取到事务 A 所做的修改,解决了脏读问题。

    二级缓存的刷新

    我们来看看 SqlSession 的更新操作

    public int update(String statement, Object parameter) {
        int var4;
        try {
            this.dirty = true;
            MappedStatement ms = this.configuration.getMappedStatement(statement);
            var4 = this.executor.update(ms, this.wrapCollection(parameter));
        } catch (Exception var8) {
            throw ExceptionFactory.wrapException("Error updating database.  Cause: " + var8, var8);
        } finally {
            ErrorContext.instance().reset();
        }
    
        return var4;
    }
    
    public int update(MappedStatement ms, Object parameterObject) throws SQLException {
        this.flushCacheIfRequired(ms);
        return this.delegate.update(ms, parameterObject);
    }
    
    private void flushCacheIfRequired(MappedStatement ms) {
        //获取MappedStatement对应的Cache,进行清空
        Cache cache = ms.getCache();
        //SQL需设置flushCache="true" 才会执行清空
        if (cache != null && ms.isFlushCacheRequired()) {
      this.tcm.clear(cache);
        }
    }

    MyBatis 二级缓存只适用于不常进行增、删、改的数据,比如国家行政区省市区街道数据。一但数据变更,MyBatis 会清空缓存。因此二级缓存不适用于经常进行更新的数据。

    使用 redis 存储二级缓存

    通过上面代码分析,我们知道二级缓存默认和一级缓存都是使用的 PerpetualCache 存储结果,一级缓存只要 SQLSession 关闭就会清空,其内部使用 HashMap 实现,所以二级缓存无法实现分布式,并且服务器重启后就没有缓存了。此时就需要引入第三方缓存中间件,将缓存的值存到外部,如 redis 和 ehcache

    修改 mapper.xml 中的配置。

    <?xml version="1.0" encoding="UTF-8" ?>
    <!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd" >
    <mapper namespace="com.tyb.saas.common.dal.dao.AreaDefaultMapper">
     
        <!--
        flushInterval(清空缓存的时间间隔): 单位毫秒,可以被设置为任意的正整数。
            默认情况是不设置,也就是没有刷新间隔,缓存仅仅调用语句时刷新。
        size(引用数目): 可以被设置为任意正整数,要记住你缓存的对象数目和你运行环境的可用内存资源数目。默认值是1024。
        readOnly(只读):属性可以被设置为true或false。只读的缓存会给所有调用者返回缓存对象的相同实例。
            因此这些对象不能被修改。这提供了很重要的性能优势。可读写的缓存会返回缓存对象的拷贝(通过序列化)。这会慢一些,但是安全,因此默认是false。
        eviction(回收策略): 默认的是 LRU:
            1.LRU – 最近最少使用的:移除最长时间不被使用的对象。
            2.FIFO – 先进先出:按对象进入缓存的顺序来移除它们。
            3.SOFT – 软引用:移除基于垃圾回收器状态和软引用规则的对象。
            4.WEAK – 弱引用:更积极地移除基于垃圾收集器状态和弱引用规则的对象。
        blocking(是否使用阻塞缓存): 默认为false,当指定为true时将采用BlockingCache进行封装,blocking,阻塞的意思,
            使用BlockingCache会在查询缓存时锁住对应的Key,如果缓存命中了则会释放对应的锁,否则会在查询数据库以后再释放锁,
            这样可以阻止并发情况下多个线程同时查询数据,详情可参考BlockingCache的源码。
        type(缓存类):可指定使用的缓存类,mybatis默认使用HashMap进行缓存,这里引用第三方中间件进行缓存
        -->
        <cache type="org.mybatis.caches.redis.RedisCache" blocking="false"
               flushInterval="0" readOnly="true" size="1024" eviction="FIFO"/>
     
        <!--
            useCache(是否使用缓存):默认true使用缓存
        -->
        <select id="find" parameterType="map" resultType="com.chenhao.model.User" useCache="true">
            SELECT * FROM user
        </select>
     
    </mapper>

    依然很简单, RedisCache 在保存缓存数据和获取缓存数据时,使用了 Java 的序列化和反序列化,因此需要保证被缓存的对象必须实现 Serializable 接口。

    也可以自己实现 cache

    实现自己的 cache

    package com.chenhao.mybatis.cache;
    
    import org.apache.ibatis.cache.Cache;
    import org.springframework.data.redis.core.RedisTemplate;
    import org.springframework.data.redis.core.ValueOperations;
    
    import java.util.concurrent.TimeUnit;
    import java.util.concurrent.locks.ReadWriteLock;
    import java.util.concurrent.locks.ReentrantReadWriteLock;
    
    /**
     * @author chenhao
     * @date 2019/10/31.
     */
    public class RedisCache implements Cache {
    
        private final String id;
    
        private static ValueOperations<String, Object> valueOs;
    
        private static RedisTemplate<String, String> template;
    
    
        public static void setValueOs(ValueOperations<String, Object> valueOs) {
            RedisCache.valueOs = valueOs;
        }
    
        public static void setTemplate(RedisTemplate<String, String> template) {
            RedisCache.template = template;
        }
    
        private final ReadWriteLock readWriteLock = new ReentrantReadWriteLock();
    
    
        public RedisCache(String id) {
            if (id == null) {
                throw new IllegalArgumentException("Cache instances require an ID");
            }
            this.id = id;
        }
    
        @Override
        public String getId() {
            return this.id;
        }
    
        @Override
        public void putObject(Object key, Object value) {
            valueOs.set(key.toString(), value, 10, TimeUnit.MINUTES);
        }
    
        @Override
        public Object getObject(Object key) {
            return valueOs.get(key.toString());
        }
    
        @Override
        public Object removeObject(Object key) {
            valueOs.set(key.toString(), "", 0, TimeUnit.MINUTES);
            return key;
        }
    
        @Override
        public void clear() {
            template.getConnectionFactory().getConnection().flushDb();
        }
    
        @Override
        public int getSize() {
            return template.getConnectionFactory().getConnection().dbSize().intValue();
        }
    
        @Override
        public ReadWriteLock getReadWriteLock() {
            return this.readWriteLock;
        }
    }

    Mapper 中配置自己实现的 Cache

    <cache type="com.chenhao.mybatis.cache.RedisCache"/>

     

    关于Mybatis架构原理(二)-二级缓存源码剖析mybatis的二级缓存原理的问题我们已经讲解完毕,感谢您的阅读,如果还想了解更多关于2、MyBatis架构原理、4、二级缓存源码剖析、java架构之路-(mybatis源码)mybatis的一二级缓存问题、Mybaits 源码解析 (九)----- 一级缓存和二级缓存源码分析等相关内容,可以在本站寻找。

    本文标签: