/images/avatar150x150.jpg

郭沫郭沫若~

ant design pro 整合springboot后刷新404问题

ant 官方指南,npm run build 之后将生成的文件放到spring项目 /src/main/resources/static目录下即可。 为了方便做整合,最好使用 hash 路由。如果你想使用 browserHistory ,可以创建一个 controller ,并添加如下代码: 1 2 3 4 @RequestMapping(value="/**", method=HTTPMethod.GET) public String index(){ return "index" // 或者 index.html } 测试后

Kafka transaction hanging causes consumer to stuck

Kafka事务未关闭导致消费者无法消费消息。 背景最近遇到一个问题:有一个公用topic,很多应用都读写这个topic。从某个时间点开始,所有消费该topic的消费者(read_committed级别)都拉不到消息了。随机看了一些应用的日志,

protostuff deserialize empty collection null

protostuff反序列化空集合为null。 问题描述有一个class A,含一个集合字段。创建对象时,如果集合字段赋值empty(不是null),那么反序列化后该字段变为null。 1 2 3 4 5 6 7 8 9 10 11 12 public class A { List<Object> lo; String name; } A a = new A(); a.setLo(new ArrarList<>()); a.setName("a"); var

思源笔记与logseq在PDF标注上的体验

版本:思源2.2.3,logseq 0.8.8 功能对比 功能 思源 logseq 目录/书签 Y Y 高亮、批注、矩形选择 Y Y 页面缩放、跳转 Y Y 关键字搜索 Y N 高亮内容自动添加到笔记 N Y 笔记与PDF原文之间互相跳转 Y Y logseq的明显短板是没有全文搜索,这个应该不难,不知道

如何确保kafka topic已经删除

问题描述 TopicExistsException: Topic ‘xxx’ is marked for deletion. 在写kafka工具时,有两个方法:批量创建topic和批量删除topic。 运维操作一般是,批量删除一堆topic,然后再重建删除的那些topic。在创建时,可能会遇到如下错误: 1 2 3 4 5 6 7 8 2022-09-19 08:37:55.150 INFO 20376 --- [nio-8080-exec-4] c.w.w.k.service.TopicManagerImpl : input topics num: 100, deleted

在consumer producer运行时停止kafka服务端会怎样

结论服务端停止时,客户端程序会报错; 服务端启动后,客户端程序能继续运行。也就是,消费者线程并未异常退出。 实验步骤(1)停止后,consumer和producer会报错。 消费者: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32

如何在Spring Boot代码中执行sql脚本

在spring应用运行时,有一些建表语句,或则初始化数据,需要从sql脚本导入。 本文推荐以下两种方法。 假设脚本位于/resources/ddl.sql 1 使用@sql注解该注解可用于类和方法。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 @Sql(scripts = {"/ddl.sql"}, config = @SqlConfig(encoding =

MySQL外键

语法在创建表的时候指定外键约束 1 2 3 4 5 6 7 8 9 10 CREATE TABLE 表名 ( column1 datatype null/not null, column2 datatype null/not null, ... CONSTRAINT 外键约束名 FOREIGN KEY (column1,column2,... column_n) REFERENCES 外键依赖的表 (column1,column2,...column_n) ON DELETE CASCADE--级联删除 ON UPDATE CASCADE--级联更新 ); 测试有如下2个表: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 CREATE TABLE t_product

Kafka事务不完全指南

Kafka的事务是什么生产者往多个topic里面写消息,要么同时成功,要么同时失败。 为什么需要事务消息系统有3种语义: 最多一次 最少一次 精确一次。Exactly Only Once 为了实现精确一次的语义,Kafka必须引入事务。如下图: 本应用从上游topic

kafka offset为什么不连续

why kafka offset not sequential 未使用事务时,至少一次语义,消息重发时,会占用offset 使用事务时,每次事务的commit/abort,都会往topic(每个分区?)写一个标志,这个标志会占用offset 官方并未提及offset是连续的 Reference [Solved] Kafka Streams does not increment offset by 1 when producing

Linux CPU 性能测试

sysbenchSysbench is mainly intended for doing database benchmarking. However it includes options to test CPU, memory and file throughput as well. 安装 1 sudo apt install sysbench 使用 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 ubuntu@instance:~$ sysbench cpu --threads=3 run sysbench 1.0.18 (using system LuaJIT 2.1.0-beta3) Running the test with following options: Number of threads: 3 Initializing random number generator from current time Prime numbers limit: 10000 Initializing worker threads... Threads started! CPU speed: events per second: 10519.03 General statistics: total time: 10.0003s total number of events: 105208 Latency (ms): min: 0.28 avg: 0.28
0%