如何使用wireshark 解密TLS-SSL报文

devtools/2025/1/17 0:40:13/

目录

前言

原理

操作


前言

现在网站都是https 或者 很多站点都支持 http2。这些站点为了保证数据的安全都通过TLS/SSL 加密过,用wireshark 并不能很好的去解析报文,我们就需要用wireshark去解密这些报文。我主要讲解下mac 在 chrome 怎么配置的,浏览器一定要支持HTTP2。

原理

获取TLS握手阶段生成的密钥,也就是说通过Chrome 浏览器DEBUG 日志中的握手信息生成密钥,wireshark 去读取文件,解析文件就可以了。

操作

1. 首先需要关闭包括后台进程的chrome。可以用命令

killall "Google Chrome"

2. 配置环境变量

export SSLKEYLOGFILE="/Users/xingyuliu/software/mytestssl.txt"
"/Applications/Google Chrome.app/Contents/MacOS/Google Chrome" --enable-logging --v=1

3. 文件必须有写的权限

chmod -R 777 mytestssl.txt 

4.环境变量可以在 mac 的 .bash_profile 配置

export SSLKEYLOGFILE="/Users/xingyuliu/software/mytestssl.txt"

5. 然后source .bash_profile 文件就可以了

配置 wireshark

打开第一个菜单下面的 Prefecense -> Protocols-> TLS

配置成这样就可以了

配置好后我们在浏览器输入站点是HTT2 的网址应该是这样的就说明 wireshark 已经可以解析http2 的报文了。

好了可以了,每次解析前记得一定要完成第一步。


http://www.ppmy.cn/devtools/151121.html

相关文章

【Go】Go Gin框架初识(一)

1. 什么是Gin框架 Gin框架:是一个由 Golang 语言开发的 web 框架,能够极大提高开发 web 应用的效率! 1.1 什么是web框架 web框架体系图(前后端不分离)如下图所示: 从上图中我们可以发现一个Web框架最重要…

EasyExcel - 行合并策略(二级列表)

😼前言:博主在工作中又遇到了新的excel导出挑战:需要导出多条文章及其下联合作者的信息,简单的来说是一个二级列表的数据结构。 🕵️‍♂️思路:excel导出实际上是一行一行的记录,再根据条件对其…

平滑算法 效果比较

目录 高斯平滑 效果对比 移动平均效果比较: 高斯平滑 效果对比 右边两个参数是1.5 2 代码: smooth_demo.py import numpy as np import cv2 from scipy.ndimage import gaussian_filter1ddef gaussian_smooth_array(arr, sigma):smoothed_arr = gaussian_filter1d(arr, s…

数据结构9——二叉搜索树

🥇1.二叉搜索树的概念 二叉搜索树(Binary Search Tree,BST)又称二叉排序树或二叉查找树,其要么是一棵空树,要么具有以下性质: ①:左子树上所有节点的值都小于根节点; ②:右子树上所有节点的值都…

如何监控和防范小红书笔记详情API的安全风险?

流量监控与异常检测 请求频率监测: 建立一个系统来记录 API 的请求频率。可以通过在服务器端设置计数器或者使用专业的监控工具来实现。例如,对于每个 API 调用者(可以通过 API 密钥或者用户标识来区分),记录它们在单…

什么是IDE,新手如何选择IDE?

IDE 是 Integrated Development Environment(集成开发环境)的缩写,它是一种软件应用程序,为程序员提供了一站式的开发环境,整合了多种工具和服务,以便高效地创建、修改、编译、调试和运行软件程序。IDE 集成…

BGP 泄露

大家读完觉得有帮助记得关注和点赞!!! 目录 1. BGP 是什么? 2. 什么是 BGP 泄露? 3. 今天发生了什么? 4. 正常和被劫持状态下的路由示意图 5. 受影响区域 6. 责任在谁? 7. 有办法避免这…

爬虫案例:python爬取京东商品数据||京东商品详情SKU价格

网址:https://www.jd.com/ 基于当下的淘宝网站反扒机制太严格,即使通过模拟浏览来获取,依旧比较难,因此选择京东这个平台来练习一下通过模拟浏览器来进行数据获取。 1、爬取思路 (1)本次爬取的内容为京东…