【206期】面试官——你的项目是如何处理重复请求,并发请求的?

本人花费半年的时间总结的《Java面试指南》已拿腾讯等大厂offer,已开源在github ,欢迎star!

转载声明:转载请注明出处,本技术博客是本人原创文章

本文GitHub https://github.com/OUYANGSIHAI/JavaInterview 已收录,这是我花了6个月总结的一线大厂Java面试总结,本人已拿大厂offer,欢迎star

原文链接:blog.ouyangsihai.cn >> 【206期】面试官——你的项目是如何处理重复请求,并发请求的?

点击上方“Java面试题精选”,关注公众号

面试刷图,查缺补漏

号外:公众号改版后文章顺序不固定,欢迎大家把我们面试题精选这个公众号设置为星标,感谢大家一年的支持!!

阶段汇总集合:

对于一些用户请求,在某些情况下是可能重复发送的,如果是查询类操作并无大碍,但其中有些是涉及写入操作的,一旦重复了,可能会导致很严重的后果,例如交易的接口如果重复请求可能会重复下单。

重复的场景有可能是:

  • 黑客拦截了请求,重放
  • 前端/客户端因为某些原因请求重复发送了,或者用户在很短的时间内重复点击了。
  • 网关重发
  • ….
  • 本文讨论的是如何在服务端优雅地统一处理这种情况,如何禁止用户重复点击等客户端操作不在本文的讨论范畴。

    利用唯一请求编号去重

    你可能会想到的是,只要请求有唯一的请求编号,那么就能借用Redis做这个去重——只要这个唯一请求编号在redis存在,证明处理过,那么就认为是重复的

    代码大概如下:

    
    String KEY = "REQ12343456788";//请求唯一编号
    long expireTime =  1000;// 1000毫秒过期,1000ms内的重复请求会认为重复
    long expireAt = System.currentTimeMillis() + expireTime;
    String val = "expireAt@" + expireAt;
    
    //redis key还存在的话要就认为请求是重复的
    Boolean firstSet = stringRedisTemplate.execute((RedisCallbackBoolean) connection - connection.set(KEY.getBytes(), val.getBytes(), Expiration.milliseconds(expireTime), RedisStringCommands.SetOption.SET_IF_ABSENT));
    
    final boolean isConsiderDup;
    if (firstSet != null && firstSet) {// 第一次访问
        isConsiderDup = false;
    } else {// redis值已存在,认为是重复了
        isConsiderDup = true;
    }
    

    业务参数去重

    上面的方案能解决具备唯一请求编号的场景,例如每次写请求之前都是服务端返回一个唯一编号给客户端,客户端带着这个请求号做请求,服务端即可完成去重拦截。

    但是,很多的场景下,请求并不会带这样的唯一编号!那么我们能否针对请求的参数作为一个请求的标识呢?

    先考虑简单的场景,假设请求参数只有一个字段reqParam,我们可以利用以下标识去判断这个请求是否重复。用户ID:接口名:请求参数

    
    String KEY = "dedup:U="+userId + "M=" + method + "P=" + reqParam;
    

    那么当同一个用户访问同一个接口,带着同样的reqParam过来,我们就能定位到他是重复的了。

    但是问题是,我们的接口通常不是这么简单,以目前的主流,我们的参数通常是一个JSON。那么针对这种场景,我们怎么去重呢?

    计算请求参数的摘要作为参数标识

    假设我们把请求参数(JSON)按KEY做升序排序,排序后拼成一个字符串,作为KEY值呢?但这可能非常的长,所以我们可以考虑对这个字符串求一个MD5作为参数的摘要,以这个摘要去取代reqParam的位置。

    
    String KEY = "dedup:U="+userId + "M=" + method + "P=" + reqParamMD5;
    

    这样,请求的唯一标识就打上了!

    注:MD5理论上可能会重复,但是去重通常是短时间窗口内的去重(例如一秒),一个短时间内同一个用户同样的接口能拼出不同的参数导致一样的MD5几乎是不可能的。

    继续优化,考虑剔除部分时间因子

    上面的问题其实已经是一个很不错的解决方案了,但是实际投入使用的时候可能发现有些问题:某些请求用户短时间内重复的点击了(例如1000毫秒发送了三次请求),但绕过了上面的去重判断(不同的KEY值)。

    原因是这些请求参数的字段里面,是带时间字段的,这个字段标记用户请求的时间,服务端可以借此丢弃掉一些老的请求(例如5秒前)。如下面的例子,请求的其他参数是一样的,除了请求时间相差了一秒:

    
    //两个请求一样,但是请求时间差一秒
     String req = "{n" +
             ""requestTime" :"20190101120001",n" +
             ""requestValue" :"1000",n" +
             ""requestKey" :"key"n" +
             "}";
    
     String req2 = "{n" +
             ""requestTime" :"20190101120002",n" +
             ""requestValue" :"1000",n" +
             ""requestKey" :"key"n" +
             "}";
    

    这种请求,我们也很可能需要挡住后面的重复请求。所以求业务参数摘要之前,需要剔除这类时间字段。还有类似的字段可能是GPS的经纬度字段(重复请求间可能有极小的差别)。

    请求去重工具类,Java实现

    
    public class ReqDedupHelper {
    
        /**
         *
         * @param reqJSON 请求的参数,这里通常是JSON
         * @param excludeKeys 请求参数里面要去除哪些字段再求摘要
         * @return 去除参数的MD5摘要
         */
        public String dedupParamMD5(final String reqJSON, String... excludeKeys) {
            String decreptParam = reqJSON;
    
            TreeMap paramTreeMap = JSON.parseObject(decreptParam, TreeMap.class);
            if (excludeKeys!=null) {
                ListString dedupExcludeKeys = Arrays.asList(excludeKeys);
                if (!dedupExcludeKeys.isEmpty()) {
                    for (String dedupExcludeKey : dedupExcludeKeys) {
                        paramTreeMap.remove(dedupExcludeKey);
                    }
                }
            }
    
            String paramTreeMapJSON = JSON.toJSONString(paramTreeMap);
            String md5deDupParam = jdkMD5(paramTreeMapJSON);
            log.debug("md5deDupParam = {}, excludeKeys = {} {}", md5deDupParam, Arrays.deepToString(excludeKeys), paramTreeMapJSON);
            return md5deDupParam;
        }
    
        private static String jdkMD5(String src) {
            String res = null;
            try {
                MessageDigest messageDigest = MessageDigest.getInstance("MD5");
                byte[] mdBytes = messageDigest.digest(src.getBytes());
                res = DatatypeConverter.printHexBinary(mdBytes);
            } catch (Exception e) {
                log.error("",e);
            }
            return res;
        }
    }
    

    下面是一些测试日志:

    
    public static void main(String[] args) {
        //两个请求一样,但是请求时间差一秒
        String req = "{n" +
                ""requestTime" :"20190101120001",n" +
                ""requestValue" :"1000",n" +
                ""requestKey" :"key"n" +
                "}";
    
        String req2 = "{n" +
                ""requestTime" :"20190101120002",n" +
                ""requestValue" :"1000",n" +
                ""requestKey" :"key"n" +
                "}";
    
        //全参数比对,所以两个参数MD5不同
        String dedupMD5 = new ReqDedupHelper().dedupParamMD5(req);
        String dedupMD52 = new ReqDedupHelper().dedupParamMD5(req2);
        System.out.println("req1MD5 = "+ dedupMD5+" , req2MD5="+dedupMD52);
    
        //去除时间参数比对,MD5相同
        String dedupMD53 = new ReqDedupHelper().dedupParamMD5(req,"requestTime");
        String dedupMD54 = new ReqDedupHelper().dedupParamMD5(req2,"requestTime");
        System.out.println("req1MD5 = "+ dedupMD53+" , req2MD5="+dedupMD54);
    
    }
    

    日志输出:

    
    req1MD5 = 9E054D36439EBDD0604C5E65EB5C8267 , req2MD5=A2D20BAC78551C4CA09BEF97FE468A3F
    req1MD5 = C2A36FED15128E9E878583CAAAFEFDE9 , req2MD5=C2A36FED15128E9E878583CAAAFEFDE9
    

    日志说明:

  • 一开始两个参数由于requestTime是不同的,所以求去重参数摘要的时候可以发现两个值是不一样的
  • 第二次调用的时候,去除了requestTime再求摘要(第二个参数中传入了”requestTime”),则发现两个摘要是一样的,符合预期。
  • 总结

    至此,我们可以得到完整的去重解决方案,如下:

    
    String userId= "12345678";//用户
    String method = "pay";//接口名
    String dedupMD5 = new ReqDedupHelper().dedupParamMD5(req,"requestTime");//计算请求参数摘要,其中剔除里面请求时间的干扰
    String KEY = "dedup:U=" + userId + "M=" + method + "P=" + dedupMD5;
    
    long expireTime =  1000;// 1000毫秒过期,1000ms内的重复请求会认为重复
    long expireAt = System.currentTimeMillis() + expireTime;
    String val = "expireAt@" + expireAt;
    
    // NOTE:直接SETNX不支持带过期时间,所以设置+过期不是原子操作,极端情况下可能设置了就不过期了,后面相同请求可能会误以为需要去重,所以这里使用底层API,保证SETNX+过期时间是原子操作
    Boolean firstSet = stringRedisTemplate.execute((RedisCallbackBoolean) connection - connection.set(KEY.getBytes(), val.getBytes(), Expiration.milliseconds(expireTime),
            RedisStringCommands.SetOption.SET_IF_ABSENT));
    
    final boolean isConsiderDup;
    if (firstSet != null && firstSet) {
        isConsiderDup = false;
    } else {
        isConsiderDup = true;
    }
    

    END

    来源:jaskey.github.io/blog/2020/05/19/handle-duplicate-request

    十期推荐

    与其在网上拼命找题?** 不如马上关注我们~**

    【206期】面试官:你的项目是如何处理重复请求/并发请求的?

    原文始发于微信公众号(Java面试题精选):

    本人花费半年的时间总结的《Java面试指南》已拿腾讯等大厂offer,已开源在github ,欢迎star!

    转载声明:转载请注明出处,本技术博客是本人原创文章

    本文GitHub https://github.com/OUYANGSIHAI/JavaInterview 已收录,这是我花了6个月总结的一线大厂Java面试总结,本人已拿大厂offer,欢迎star

    原文链接:blog.ouyangsihai.cn >> 【206期】面试官——你的项目是如何处理重复请求,并发请求的?


     上一篇
    【205期】面试官——数据量很大的情况下,对于分页查询你有什么优化方案吗? 【205期】面试官——数据量很大的情况下,对于分页查询你有什么优化方案吗?
    点击上方“Java面试题精选”,关注公众号 面试刷图,查缺补漏 号外:公众号改版后文章顺序不固定,欢迎大家把我们面试题精选这个公众号设置为星标,感谢大家一年的支持!! 阶段汇总集合: 当需要从数据库查询的表有上万条记录的时候,一次性查询所有
    2021-04-05
    下一篇 
    【207期】19张图带你梳理SpringCloud体系中的重要知识点! 【207期】19张图带你梳理SpringCloud体系中的重要知识点!
    点击上方“Java面试题精选”,关注公众号 面试刷图,查缺补漏 号外:公众号改版后文章顺序不固定,欢迎大家把我们面试题精选这个公众号设置为星标,感谢大家一年的支持!! 阶段汇总集合: 1、什么是微服务1.1、架构演进架构的发展历程是从单体式
    2021-04-05