首页
归档
友链
关于
Search
1
网易云音乐黑胶会员月月免费赠送
4,085 阅读
2
十年之约RSS聚合订阅服务上线
3,826 阅读
3
工资发放日的区别
2,857 阅读
4
rsyslogd内存占用过高解决方案
2,586 阅读
5
Nginx反代MinIO后,上传文件签名异常
2,384 阅读
零碎
标本
码海
工具
其他
登录
Search
标签搜索
北京
摄影
生活
旅行
Java
学习笔记
教程
服务器
Linux
软件
日记
SpringBoot
服务
Windows
数据库
福利
Spring
系统
SQL
docker
萧瑟
累计撰写
203
篇文章
累计收到
1,473
条评论
首页
栏目
零碎
标本
码海
工具
其他
页面
归档
友链
关于
搜索到
203
篇与
萧瑟
的结果
2023-11-16
使用Chat2DB搭建Web端数据库管理工具
Chat2DB 3.0新版体验,支持跨平台使用,是一款开源免费的多数据库客户端工具,支持多种客户端,是AI时代数据库研发人员的利器,满足快速查询业务数据、生成报表能力
2023年11月16日
1,006 阅读
4 评论
2023-11-13
休假的三天
今年加班也挺多,偶尔调休一天,连着周末,刚好又休息了三天,这三天的时候,生物钟又逐渐打破,日夜颠倒。每天都睡到十一二点才起床。
2023年11月13日
627 阅读
13 评论
2023-11-10
十年之约RSS聚合服务异常通知
晚上23时06分,收到 DNSPod 邮件通知,发现服务异常,疑似宕机,当我重启完路由器后,服务仍未恢复,远程访问内网服务器,发现服务一切正常,访问路由器控制面板,发现公网IP没了,变成了运营商提供的NAT内网地址。因为太晚了,给宽带师傅留言,看明天是什么结果。担心还有网友在使用我这个服务,临时使用内网穿透,先将端口映射出去,临时恢复。订阅地址未变,仍是之前的,如需使用,请参考“十年之约 RSS 聚合订阅服务”。
2023年11月10日
361 阅读
4 评论
2023-11-08
立冬加餐
今日立冬 “天水清相入,秋冬气始交”,立,建始也。冬终也,万物收藏也。心有暖意,凛冬亦暖,一树灿烂,冬来福至,万物开始积蓄能量。晚上到家,有些饿了,媳妇就准备做宵夜了,也为我加餐。有热气腾腾的饺子、香喷喷的皮皮虾。在这立冬的日子里,家人的温暖陪伴和美食的满足感让人心情愉悦,感谢遇到你。
2023年11月08日
545 阅读
10 评论
2023-11-06
帝都入冬
周末帝都雨过天晴,夕阳透过云层映红了天空,如一幅天然油画。一夜冷风急,帝都黄叶飞。萧萧不见月,匆匆行人归。6日凌晨,北京正式点火试运行,启动供暖。北京的一场雨带来了属于她的冬天,愈加冰封了那颗躁动的心。
2023年11月06日
520 阅读
11 评论
2023-10-22
京西皮影非遗园周末半日游
这周刚买了一张京津冀旅游年卡,能够畅玩两百多个景区,限时特价99元3张。跟好友拼了两张,这周刚好可以稍微休息一下,突然发现京西皮影非遗园离我大概就十公里左右,也在这个年卡范围内,所以就去瞧了瞧。景区介绍中国京西皮影非遗园是一家专业从事皮影艺术品收藏、整理、皮影舞台艺术表演、皮影艺术展览、皮雕工艺品研发的综合性文化单位,身临其境的感受皮影艺术的魅力。中国京西皮影非遗园,带你走进2000年的皮影艺术,寻找皮影的秘密,了解制作过程,体验与汲取传统文化的营养,让大家喜欢上皮影,一起传承。开放时间全年 周六-周日 09:30-12:00,13:30-16:00开放;全年 周一-周五 全天不开放;中国法定节假日 09:30-12:00,13:30-16:00开放;票价100元(优惠价88元),年卡免费一次景区风景基本上人不是很多,大概有二十来号人,所以不用怎么排队,去了只需要出示年卡二维码即可,不到点不开门,所以不要以为不开门。这个是园区的场馆的介绍图,进去可以逛一逛,基本上都是介绍皮影的发展史,没有那种装旧皮影的玻璃柜,基本上都是图和文字描述,可以简单了解一下发展史。展馆内少有的装饰,山海经的一些展示,还有龙之类的,因为龙太长就简单拍了这个。这个是介绍了皮影戏的分布图,第一张景区介绍拍的比较多一些。这个是我挑了几张比较好看的皮影介绍,有兴趣的可以去现场看一看每个皮影介绍的不同故事。带娃比较合适。终于等到皮影戏开始演出了,这篇讲的是金斧头,感觉还不错,第二场讲的是龟与鹤,说是之前毛爷爷招待战斗民族领导人来看过。 var player = new DogePlayer({ container: document.getElementById('player_10a2ebac195abfff'), userId: 466, vcode: '10a2ebac195abfff', autoPlay: false }); 中场休息的时候,还可以去后台体验皮影戏操作,我操作的是金斧头中的砍柴少年,它是又6根木棍组成,只做了一些简单的动作,都比较费劲,可想而知,幕后人员下了多少年的努力才有一场皮影戏的精彩演出。也希望大家有空了解中国瑰宝,可以感受了一下古人的娱乐方式(原来以前他们是这样看电视电影的),不要忘记中华五千年的悠久文化和成果。
2023年10月22日
398 阅读
9 评论
2023-10-14
Windows NTP 时间同步软件
Windows端时间同步支持服务端和客户端,Windows的NTP默认端口须使用123,如果自定义端口则需要使用本软件的客户端功能进行同步。软件下载{cloud title="NTPSync软件下载" type="default" url="https://blog.yanqingshan.com/usr/upload/2023/10/14/NTPSync.exe" password=""/}本软件由 cofface 大佬制作发布,如有侵权联系删除。
2023年10月14日
482 阅读
8 评论
2023-09-24
Hyper-V虚拟机硬盘压缩
突然发现家里私有云磁盘不足了,停服后,使用Hyper-V自带的磁盘管理压缩一下磁盘,发现并没有什么变化。网上通用的都是使用自带工具,翻了翻很多资料,才发现可以使用 powershell 工具执行命令附加到Windows自带磁盘管理器,然后再压缩才会清理调占用的磁盘。Linux 虚拟机磁盘压缩linux 回收系统上未使用的空间操作前先清理系统中的垃圾文件,然后执行以下命令后再关闭虚拟机或者保存虚拟机(建议关闭虚拟机)fstrim -aHyper-V 服务器打开powershell执行以下命令(建议以管理员权限执行)# 只读方式附加到本地磁盘 Mount-VHD 'D:\Hyper-V\Virtual Hard Disks\TestNode.vhdx' -ReadOnly # 压缩硬盘空间 Optimize-VHD 'D:\Hyper-V\Virtual Hard Disks\TestNode.vhdx' -Mode Full # 卸载附加的磁盘 Dismount-VHD 'D:\Hyper-V\Virtual Hard Disks\TestNode.vhdx'Windows 虚拟机磁盘压缩操作前先清理系统中的垃圾文件,关闭虚拟机然后在hyper-v服务器执行以下命令Hyper-v 服务器打开 powershell 执行以下命令# 只读方式附加到本地磁盘 Mount-VHD "D:\Hyper-V\Virtual Hard Disks\ServiceServer.vhdx" -ReadOnly # 压缩硬盘空间 Optimize-VHD -Path "D:\Hyper-V\Virtual Hard Disks\ServiceServer.vhdx" -Mode Full # 卸载附加的磁盘 Dismount-VHD "D:\Hyper-V\Virtual Hard Disks\ServiceServer.vhdx"
2023年09月24日
393 阅读
2 评论
2023-09-02
抓娃娃的快乐
今天刚从医院出来,想去附近商超逛逛,偶然发现新开了一家“娃娃机游戏厅”。进店逛逛,看到那些五彩缤纷、各式各样的娃娃,便情不自禁地走上前去,购买了150快钱的币,每两个币玩一次。投入硬币,拿起娃娃机里的抓钩,开始我的“抓娃娃之旅”。站在娃娃机前,聚精会神地盯着那个娃娃,调整抓钩的位置,力求准确无误地将娃娃抓起。谁知,好多次都快抓到了,结果钩子松了,娃娃掉落。看着旁边的小孩,使劲拍打着抓钩按钮,不一会她的小车车就装忙了娃娃,我也学着着小孩,使劲敲击着按钮,不一会就抓到了。来看看我成果。最后又用六个娃娃,换了两个小手办,看看后面能不能粘到小摩托上面,增加一些乐趣。偶尔放松一下,也会让我在生活中感觉更加充实和快乐。
2023年09月02日
859 阅读
27 评论
2023-08-29
SpringBoot 对接华为大数据平台kerberos认证的Kafka数据
最近项目中有用到kafka来同步某业务核心数据,通过kafka来进行数据的实时更新。原本使用的是Apache kafka 来进行订阅消费,后因业务方信创要求,更换了华为大数据平台的Kafka数据源,采用kerberos认证。对接了一天多,数据才接入成功,网上相关文档比较少,这里我总结一下,为后人少踩坑。本次使用的是华为MRS3.1.2版本,其他版本应该都类似。修改项目中的pom.xml依赖,将默认的apache的kafka-client包替换为华为自带的。如果拉去不到相关依赖包,请更换为华为Maven镜像,配置信息如下。<repositories> <repository> <id>huawei-cloud-sdk</id> <name>HuaWei Cloud Mirrors</name> <url>https://mirrors.huaweicloud.com/repository/maven/huaweicloudsdk/</url> <releases> <enabled>true</enabled> </releases> <snapshots> <enabled>true</enabled> </snapshots> </repository> <repository> <id>huawei-mirrors</id> <name>HuaWei Mirrors</name> <url>https://repo.huaweicloud.com/repository/maven/</url> </repository> </repositories>我们需要在配置文件中增加新的配置文件,不要使用spring.kafka相关配置,建议自己新增一个配置信息,本文以huawei.mrs.kafka为例。huawei: mrs: kafka: enable: false bootstrap-servers: 10.244.231.2:21007,10.244.230.202:21007,10.244.230.125:21007 security: protocol: SASL_PLAINTEXT kerberos: domain: name: hadoop.hadoop_651_arm.com sasl: kerberos: service: name: kafka新建一个配置文件HuaWeiMrsKafkaConfiguration,配置相关信息@Value("${huawei.mrs.kafka.enable}") public Boolean enable; @Value("${huawei.mrs.kafka.bootstrap-servers}") public String boostrapServers; @Value("${huawei.mrs.kafka.security.protocol}") public String securityProtocol; @Value("${huawei.mrs.kafka.kerberos.domain.name}") public String kerberosDomainName; @Value("${huawei.mrs.kafka.sasl.kerberos.service.name}") public String kerberosServiceName; @Bean public ConcurrentKafkaListenerContainerFactory<?, ?> kafkaListenerContainerFactory( ConcurrentKafkaListenerContainerFactoryConfigurer configurer, ConsumerFactory<Object, Object> kafkaConsumerFactory, KafkaTemplate<String, String> template) { ConcurrentKafkaListenerContainerFactory<Object, Object> factory = new ConcurrentKafkaListenerContainerFactory<>(); configurer.configure(factory, kafkaConsumerFactory); //禁止消费者自启动,达到动态启动消费者的目的 factory.setAutoStartup(enable); return factory; } @Bean public ConsumerFactory<Object, Object> consumerFactory() { Map<String, Object> configs = new HashMap<>(); configs.put("security.protocol", securityProtocol); configs.put("kerberos.domain.name", kerberosDomainName); configs.put("bootstrap.servers", boostrapServers); configs.put("sasl.kerberos.service.name", kerberosServiceName); configs.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); configs.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); return new DefaultKafkaConsumerFactory<>(configs); } @Bean public KafkaTemplate<String, String> kafkaTemplate() { Map<String, Object> configs = new HashMap<>(); configs.put("security.protocol", securityProtocol); configs.put("kerberos.domain.name", kerberosDomainName); configs.put("bootstrap.servers", boostrapServers); configs.put("sasl.kerberos.service.name", kerberosServiceName); configs.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); configs.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); ProducerFactory<String, String> producerFactory = new DefaultKafkaProducerFactory<>(configs); return new KafkaTemplate<>(producerFactory); } @Bean public RecordMessageConverter converter() { return new StringJsonMessageConverter(); }再新建一个全局消费kafka数据的KafkaConsumer类@Slf4j @Component public class KafkaConsumer { @KafkaListener(topics = "topic1") public void topicMessage(ConsumerRecord<?, ?> record) { log.info("Kafka->topic:‘topic1’-->{}", record.value()); //TODO:业务逻辑 } }配置kerberos信息,也是非常重要的一步,配置kerberos认证文件,本文将以最简单的教程为例,在启动脚本中配置。为什么不在项目中配置呢?因为各位的项目都各自不同,放在resources目录中,有的时候会读取不到,所以我们以最简单的例子来作为讲解。打包项目,将打包好的jar放置在服务器中。并将下载安全集群认证用户的krb5.conf和user.keytab文件放置跟jar包相同目录或者自定义一个目录(本文以/data/java/huawei-mrs-kafka为例)。在这个文件夹或者部署目录通缉新建一个jaas.conf文件,将keyTab项修改为绝对路径。principal则是华为大数据平台提供的账号。Client { com.sun.security.auth.module.Krb5LoginModule required useKeyTab=true keyTab="/data/java/huawei-mrs-kafka/user.keytab" principal="developuser@HADOOP_651_ARM.COM" useTicketCache=false storeKey=true debug=true; }; KafkaClient { com.sun.security.auth.module.Krb5LoginModule required useKeyTab=true keyTab="/data/java/huawei-mrs-kafka/user.keytab" principal="developuser@HADOOP_651_ARM.COM" useTicketCache=false storeKey=true debug=true; }; 最后一步,运行jar包,指定krb5.conf和jaas.conf环境变量。java -jar -Djava.security.krb5.conf=/data/java/huawei-mrs-kafka/krb5.conf -Djava.security.auth.login.config=/data/java/huawei-mrs-kafka/jaas.conf huawei-mrs-kafka-1.0-SNAPSHOT.jar因为本地没有相关环境,生产环境又处于内网,这里就不提供相关运行成功的代码,对接华为大数据平台的Kafka其实很简单,只是网上的教程很少而已。如有这方面的问题,可以在本文留言,看到了就会回复。{cloud title="示例下载" type="default" url="https://www.gitlink.org.cn/yanqs/huawei-mrs-kafka-demo" password=""/}
2023年08月29日
616 阅读
0 评论
1
...
4
5
6
...
21