Mi informacion de contacto
Correo[email protected]
2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Se refiere a consultar datos que no deben existir. Dado que el caché no se accede, se consultará la base de datos, pero la base de datos no tiene dicho registro. No escribimos el valor nulo de esta consulta en el caché, lo que resultará. en cada solicitud de estos datos inexistentes, debe ir a la capa de almacenamiento para realizar la consulta, lo que pierde el significado de almacenamiento en caché.
riesgo:
El uso de datos inexistentes para llevar a cabo ataques aumentará la presión instantánea sobre la base de datos y eventualmente conducirá a un colapso.
resolver:
El resultado nulo se almacena en caché y se agrega un tiempo de vencimiento breve.
Avalancha de caché: Avalancha de caché significa que cuando configuramos el caché, la clave adopta el mismo tiempo de vencimiento, lo que hace que el caché deje de ser válido en un momento determinado, todas las solicitudes se reenvían a la base de datos y la base de datos está bajo presión y avalanchas instantáneas.
Solución: agregue un valor aleatorio al tiempo de vencimiento original, como de 1 a 5 minutos al azar, de modo que la tasa de repetición de cada tiempo de vencimiento almacenado en caché se reduzca, lo que dificulta la causa de eventos de falla colectiva.
Desglose del caché:
resolver:
Cerrar
Una gran cantidad de concurrencia permite que solo uno verifique, y los demás esperan. Después de verificar, se libera el bloqueo y los demás adquieren el bloqueo, se desplazan y verifican el caché primero, y habrá datos sin tener que ir a la base de datos.
Resuelva primero la penetración de caché y la avalancha
- private static final String CATALOG_JSON="CATALOG_JSON";
- @Override
- public Map<String, List<Catelog2Vo>> getCatalogJson() {
-
- /**
- * 空结果缓存:解决缓存穿透
- * 设置过期时间(加随机值) 缓存雪崩
- * 加锁 解决缓存击穿
- */
- Object result = redisTemplate.opsForValue().get(CATALOG_JSON);
- if(result!=null){
- return (Map<String, List<Catelog2Vo>>) result;
- }
-
- Map<String, List<Catelog2Vo>> map = getCatalogJsonFromDB();
- if (map==null){
- /**
- * 解决缓存穿透
- */
- map=new HashMap<>();
- }
- redisTemplate.opsForValue().set(CATALOG_JSON,map, Duration.ofDays(1));
- return map;
- }
El objeto contenedor springboot está en modo singleton de forma predeterminada, por lo que el mismo objeto se puede sincronizar y bloquear. Cuando se usa el modo de detección dual, se puede ejecutar al mismo tiempo.
- public synchronized Map<String, List<Catelog2Vo>> getCatalogJsonFromDB() {
-
- Object result = redisTemplate.opsForValue().get(CATALOG_JSON);
- if (result != null) {
- return (Map<String, List<Catelog2Vo>>) result;
- }
-
-
- //1.查出所有1级分类
- List<CategoryEntity> selectList = baseMapper.selectList(null);
- /**
- * 将数据库的多次查询变成一次
- */
-
- //2. 封装数据
- List<CategoryEntity> level1Category = selectList.stream().filter(s -> s.getParentCid().equals(0L)).collect(Collectors.toList());
- Map<String, List<Catelog2Vo>> map = level1Category.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
- //1.每一个的一级分类,查到1级分类的所有二级分类
- List<CategoryEntity> categoryEntities = selectList.stream().filter(s -> s.getParentCid().equals(v.getCatId())).collect(Collectors.toList());
-
- List<Catelog2Vo> catelog2VoList = categoryEntities.stream().map(c -> {
- Catelog2Vo catelog2Vo = new Catelog2Vo();
- catelog2Vo.setId(c.getCatId().toString());
- catelog2Vo.setName(c.getName());
- catelog2Vo.setCatalog1Id(v.getCatId().toString());
-
- List<CategoryEntity> categoryEntities1 = selectList.stream().filter(s -> s.getParentCid().equals(c.getCatId())).collect(Collectors.toList());
- List<Catelog2Vo.Catelog3Vo> collect = categoryEntities1.stream().map(c3 -> {
- Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo();
- catelog3Vo.setId(c3.getCatId().toString());
- catelog3Vo.setName(c3.getName());
- catelog3Vo.setCatalog2Id(c.getCatId().toString());
- return catelog3Vo;
- }).collect(Collectors.toList());
-
- catelog2Vo.setCatalog3List(collect);
-
- return catelog2Vo;
- }).collect(Collectors.toList());
-
-
- return catelog2VoList;
- }));
- return map;
- }
- public Map<String, List<Catelog2Vo>> getCatalogJson() {
-
- /**
- * 空结果缓存:解决缓存穿透
- * 设置过期时间(加随机值) 缓存雪崩
- * 加锁 解决缓存击穿
- */
- Object result = redisTemplate.opsForValue().get(CATALOG_JSON);
- if (result != null) {
- return (Map<String, List<Catelog2Vo>>) result;
- }
-
- Map<String, List<Catelog2Vo>> map = getCatalogJsonFromDB();
- if (map == null) {
- /**
- * 解决缓存穿透
- */
- map = new HashMap<>();
- }
- redisTemplate.opsForValue().set(CATALOG_JSON, map, Duration.ofDays(1));
- return map;
- }
Todavía habrá problemas con la lógica del código anterior. Cuando se ejecute simultáneamente, el hilo No. 1 terminará de verificar la base de datos y liberará el bloqueo antes de colocarlo en el caché. Como resultado, el hilo No. 2 consultará el caché. si no hay datos y verifique la base de datos nuevamente. No hay garantía de que solo habrá un subproceso para verificar la base de datos.
Enfoque correcto
- public synchronized Map<String, List<Catelog2Vo>> getCatalogJsonFromDB() {
-
- Object result = redisTemplate.opsForValue().get(CATALOG_JSON);
- if (result != null) {
- return (Map<String, List<Catelog2Vo>>) result;
- }
-
-
- //1.查出所有1级分类
- List<CategoryEntity> selectList = baseMapper.selectList(null);
- /**
- * 将数据库的多次查询变成一次
- */
-
- //2. 封装数据
- List<CategoryEntity> level1Category = selectList.stream().filter(s -> s.getParentCid().equals(0L)).collect(Collectors.toList());
- Map<String, List<Catelog2Vo>> map = level1Category.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
- //1.每一个的一级分类,查到1级分类的所有二级分类
- List<CategoryEntity> categoryEntities = selectList.stream().filter(s -> s.getParentCid().equals(v.getCatId())).collect(Collectors.toList());
-
- List<Catelog2Vo> catelog2VoList = categoryEntities.stream().map(c -> {
- Catelog2Vo catelog2Vo = new Catelog2Vo();
- catelog2Vo.setId(c.getCatId().toString());
- catelog2Vo.setName(c.getName());
- catelog2Vo.setCatalog1Id(v.getCatId().toString());
-
- List<CategoryEntity> categoryEntities1 = selectList.stream().filter(s -> s.getParentCid().equals(c.getCatId())).collect(Collectors.toList());
- List<Catelog2Vo.Catelog3Vo> collect = categoryEntities1.stream().map(c3 -> {
- Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo();
- catelog3Vo.setId(c3.getCatId().toString());
- catelog3Vo.setName(c3.getName());
- catelog3Vo.setCatalog2Id(c.getCatId().toString());
- return catelog3Vo;
- }).collect(Collectors.toList());
-
- catelog2Vo.setCatalog3List(collect);
-
- return catelog2Vo;
- }).collect(Collectors.toList());
-
-
- return catelog2VoList;
- }));
- if (map == null) {
- /**
- * 解决缓存穿透
- */
- map = new HashMap<>();
- }
- redisTemplate.opsForValue().set(CATALOG_JSON, map, Duration.ofDays(1));
- return map;
- }
Coloque la operación de guardar en el caché en el bloque de código de sincronización
- @Override
- public Map<String, List<Catelog2Vo>> getCatalogJson() {
-
- /**
- * 空结果缓存:解决缓存穿透
- * 设置过期时间(加随机值) 缓存雪崩
- * 加锁 解决缓存击穿
- */
- Object result = redisTemplate.opsForValue().get(CATALOG_JSON);
- if (result != null) {
- return (Map<String, List<Catelog2Vo>>) result;
- }
-
- Map<String, List<Catelog2Vo>> map = getCatalogJsonFromDB();
-
- return map;
- }
Los bloqueos locales solo pueden bloquear el proceso actual, por lo que necesitamos bloqueos distribuidos
Es decir, cada bloqueo solo puede bloquear el proceso actual, es decir, cada servicio verificará la base de datos.