Python 全栈系列265 使用ORM、Kafka、Apscheduler实现任务的并发处理

news/2024/9/19 0:43:29/ 标签: python, kafka, 开发语言

说明

这次的尝试,从框架来说是比较成功的。但是不太走运的是,有一个小的磁盘回收没有写,结果在我外出旅游的时候磁盘打满,导致任务没有按预期执行完,这点比较遗憾。

这里快速把实现的框架梳理一下,后续可以使用,以及进一步优化。

内容

1 任务数据的分发

需要处理的任务数据,先存放在了mysql的source表,处理的结果存放在result表。

首先,我为了方便使用kafka,搭建了一个kafka agent服务。这样的好处是,在任何环境下都可以使用,这对于worker来说是方便的(不再需要考虑安装kafka的环境。但是一个比较严重的问题是,增加了两次json序列化,这对于大文本处理来说还是比较影响效率的。

python">from Basefuncs import *import time 
import requests as req 
from pydantic import BaseModel,field_validator
import pandas as pd 
import json 
import time 
class Producer(BaseModel):servers : str raw_msg_list : list is_json : bool = True topic : str @propertydef msg_list(self):# change raw - json if self.is_json:tick1 = time.time()the_list = pd.Series(self.raw_msg_list).apply(json.dumps).to_list()print('takes %.2f for json dumps ' %(time.time() - tick1 ))return the_list else:return self.raw_msg_listfrom sqlalchemy import create_engine, Column, Integer, String, Float, DateTime, func, Text, Index
from sqlalchemy.orm import sessionmaker,declarative_base
from datetime import datetimem7_24013_url = f"mysql+pymysql://xxx:xxx@172.17.0.1:24013/mydb"# from urllib.parse import quote_plus
# the_passed = quote_plus('!@#*')
# # 创建数据库引擎
m7_engine = create_engine(m7_24013_url)# 创建基类
Base = declarative_base()# 定义数据模型
class DocEntMap(Base):__tablename__ = 'doc_ent_map'id = Column(Integer, primary_key=True)# CompileError: (in table 'users', column 'name'): VARCHAR requires a length on dialect mysqldoc_id = Column(String(50))ent_list_str = Column(Text)mapped_list_str = Column(Text)create_time = Column(DateTime, default=lambda: datetime.now())# 创建索引__table_args__ = (Index('idx_doc_id', doc_id),Index('idx_create_time', create_time),)# 定义模型类
class SourceData(Base):__tablename__ = 'source_data'id = Column(Integer, primary_key=True)mid = Column(String(50))content = Column(Text)created = Column(String(50))def dict(self):data_dict = {}data_dict['doc_id'] = self.middata_dict['text'] = self.contentreturn data_dict# 创建表(如果表已经存在,这一步将忽略)Base.metadata.create_all(m7_engine)# 创建会话
Session = sessionmaker(bind=m7_engine)session = Session()# 分页查询
page = 1
page_size = 10000while True:offset = (page - 1) * page_sizeresult = session.query(SourceData).filter(~SourceData.mid.in_(session.query(DocEntMap.doc_id))).offset(offset).limit(page_size).all()if not result:breakif page % 10 ==0:print(page)resent_task_list = [x.dict() for x in result]produces = Producer(servers = 'kafkaIP:9092',raw_msg_list = resent_task_list, topic='data_round_1' )resp = req.post('http://IP:24132/send_msg/',json = produces.dict()).json()page += 1session.close()

我让deepseek解读了一下,大体上是这个意思。

这段代码实现了一个数据处理和传输的流程,主要功能如下:

  1. 导入必要的库和模块

    • from Basefuncs import *:从 Basefuncs 模块中导入所有内容(具体内容未展示)。
    • import time:导入时间模块,用于计时和延时。
    • import requests as req:导入 requests 库,用于 HTTP 请求。
    • from pydantic import BaseModel, field_validator:从 pydantic 库中导入 BaseModelfield_validator,用于数据验证和模型定义。
    • import pandas as pd:导入 pandas 库,用于数据处理。
    • import json:导入 json 库,用于 JSON 数据的处理。
  2. 定义 Producer

    • 继承自 BaseModel,定义了四个字段:serversraw_msg_listis_jsontopic
    • msg_list 是一个属性方法,用于将 raw_msg_list 转换为 JSON 格式(如果 is_jsonTrue),并计算转换时间。
  3. 数据库相关操作

    • 使用 sqlalchemy 库连接到 MySQL 数据库,并定义了两个数据模型:DocEntMapSourceData
    • DocEntMap 模型定义了一个文档与实体映射的表,包含 iddoc_ident_list_strmapped_list_strcreate_time 字段。
    • SourceData 模型定义了一个源数据表,包含 idmidcontentcreated 字段。
    • 创建数据库表(如果表不存在),并创建一个数据库会话。
  4. 数据查询和处理

    • 使用分页查询从 SourceData 表中获取数据,跳过已经处理过的数据(通过 DocEntMap.doc_id 判断)。
    • 将查询结果转换为字典列表,并创建 Producer 对象。
    • 使用 requests 库发送 POST 请求,将数据发送到指定的 URL。
  5. 循环处理

    • 使用 while 循环进行分页查询,每次查询 10000 条数据,直到没有更多数据为止。
    • 每处理 10 页数据打印一次当前页码。
    • 最后关闭数据库会话。

总结:
这段代码的主要功能是从数据库中查询未处理的数据,将其转换为 JSON 格式,并通过 HTTP 请求发送到指定的服务器。整个过程使用了多个库和模块,包括数据验证、数据处理、数据库操作和网络请求等。


Producer 是kafka agent的生产者的数据模型,使用pydantic定义。DocEntMap和SourceData是mysql的数据模型,使用sqlalchemy定义。这里的作用是将未处理的数据按照批次数量,逐次进行偏移后发送到队列。

2 任务数据的本地缓存

理论上,worker应该直接从kafka队列中获取消息并处理。这里,由于任务处理大文本,受序列化影响比较大,所以我采取了本地缓存的方法。

left-right模式是常用的本地文件处理模式,left存的是原始任务数据,right存的是处理之后的结果。通过文件名的比对,可以知道完成的任务。

left-right模式还是挺好用的,比较简单、直观。过去常用的方式是按照编号规律(例如对10取余),由若干个worker获取不同的数据处理,然后存在right下面。

考虑到本次任务处理的时间较长,且数据不再存在本地,而是通过ORM存到数据库。所以本次处理时会稍作改变:Worker取到数据时,会立即往right存一个同名空文件,起到类似消息队列中ACK的作用,从而避免其他worker重复取数。

python">from Basefuncs import * import shortuuiddef get_shortuuid(charset=None):"""生成一个简洁的唯一标识符(短 UUID)。参数:charset (str, optional): 自定义的字符集。如果未提供,将使用默认字符集。返回:str: 生成的短 UUID。"""if charset:su = shortuuid.ShortUUID(charset=charset)return su.uuid()else:return shortuuid.uuid()import requests as req 
from pydantic import BaseModel,field_validator
import pandas as pd 
import json 
import time # group.id: 声明不同的group.id 可以重头消费
class InputConsumer(BaseModel):servers : str groupid : str = 'default01'is_commit: bool = True msg_num : int  = 3 topic : str is_json : bool = True the_consumer = InputConsumer(servers = 'Kafka IP:9092', msg_num =100, topic='data_round_1',groupid='test02')
# the_consumer = InputConsumer(servers = '127.0.0.1:9092', msg_num =100000, topic='mytest200')
import time 
tick1 = time.time()
# resp = req.post('http://127.0.0.1:8000/consume_msg/',json = the_consumer.dict()).json()
resp = req.post('http://172.17.0.1:24132/consume_msg/',json = the_consumer.dict()).json()
print(resp[0])
tick2 = time.time()left_path = './left_v3/'to_pickle(resp, get_shortuuid(),left_path)

这段代码主要涉及以下几个部分:

  1. 导入模块和函数

    • from Basefuncs import *:从 Basefuncs 模块中导入所有内容。这通常用于导入一些基础功能函数或工具函数。
    • import shortuuid:导入 shortuuid 模块,用于生成简洁的唯一标识符。
    • import requests as req:导入 requests 模块并将其别名设置为 req,用于发送 HTTP 请求。
    • from pydantic import BaseModel, field_validator:从 pydantic 模块中导入 BaseModelfield_validator,用于数据验证和模型定义。
    • import pandas as pd:导入 pandas 模块并将其别名设置为 pd,用于数据处理。
    • import jsonimport time:导入 jsontime 模块,分别用于处理 JSON 数据和时间操作。
  2. 生成短 UUID 的函数

    python">def get_shortuuid(charset=None):"""生成一个简洁的唯一标识符(短 UUID)。参数:charset (str, optional): 自定义的字符集。如果未提供,将使用默认字符集。返回:str: 生成的短 UUID。"""if charset:su = shortuuid.ShortUUID(charset=charset)return su.uuid()else:return shortuuid.uuid()
    

    这个函数用于生成一个短 UUID,可以选择性地使用自定义字符集。

  3. 定义输入消费者模型

    python">class InputConsumer(BaseModel):servers: strgroupid: str = 'default01'is_commit: bool = Truemsg_num: int = 3topic: stris_json: bool = True
    

    这个类定义了一个输入消费者模型,包含服务器地址、消费者组 ID、是否提交、消息数量、主题和是否为 JSON 格式等字段。

  4. 实例化输入消费者对象

    python">the_consumer = InputConsumer(servers='KAFKA IP:9092', msg_num=100, topic='data_round_1', groupid='test02')
    

    创建一个 InputConsumer 对象,并设置相关参数。

  5. 发送 HTTP 请求并处理响应

    python">import time
    tick1 = time.time()
    resp = req.post('http://172.17.0.1:24132/consume_msg/', json=the_consumer.dict()).json()
    print(resp[0])
    tick2 = time.time()
    

    使用 requests 模块发送一个 POST 请求,并将 the_consumer 对象转换为 JSON 格式作为请求体。然后打印响应的第一个元素,并记录时间。

  6. 保存响应数据

    python">left_path = './left_v3/'
    to_pickle(resp, get_shortuuid(), left_path)
    

    将响应数据保存到指定路径,使用 get_shortuuid 函数生成文件名。

总结:
这段代码主要用于生成短 UUID、定义数据模型、发送 HTTP 请求并处理响应,最后将响应数据保存到本地。


上面,其实是将消费者取数部分的功能独立了出来。InputConsumer是Kafka Agent消费者的数据模型,消费者通过Kafka Agent取到一批数,然后用get_shortuuid生成一个临时的不重复文件名来指代这个任务。

这样做,有点类似pre_fetch的概念,提前把数据取到,完成序列化(存为pickle),节约了后续处理步骤的时间。数据的获取和处理两个步骤本来就应该分开。

3 处理及存储

python">from Basefuncs import * left_path = './left_v3/'
right_path = './right_v3/'left_files = list_file_names_without_extension(left_path)
right_files = list_file_names_without_extension(right_path)gap_files =  left_files - right_files
gap_flist = list(gap_files)
gap_file_list = sorted(list(gap_flist))# 随机挑选一个任务
some_task_file = np.random.choice(gap_file_list)
print(some_task_file)# placeholder
to_pickle('', some_task_file, right_path)some_task_data = from_pickle(some_task_file, left_path)class ListBatchIterator:def __init__(self, some_list, batch_size):self.some_list = some_listself.batch_size = batch_size@staticmethoddef slice_list_by_batch(list_length, batch_num):batch_list =list(range(0, list_length +batch_num , batch_num))res_list = []for i in range(len(batch_list)-1):res_list.append((batch_list[i],batch_list[i+1]))return res_listdef __iter__(self):the_slice_list = self.slice_list_by_batch(len(self.some_list), self.batch_size)for the_slice  in the_slice_list:yield self.some_list[the_slice[0]:the_slice[1]]lb = ListBatchIterator(some_task_data, 1)
res_list = []for small_list in lb:input_dict = {}input_dict['data_list'] = small_listserver_url = 'http://172.17.0.1:8001/ent_mapping/'resp1 = req.post(server_url, json=input_dict).json()res_list += resp1res_file_list2 = [x for x in res_list if x !='detail']# ----------------------  结果存库
from pydantic import BaseModel,field_validator
class DocEnt(BaseModel):doc_id : strent_list : list maaped_ent: list @propertydef ent_list_str(self):return ','.join(self.ent_list)@propertydef mapped_list_str(self):return ','.join(self.maaped_ent)def dict(self):data_dict = {}data_dict['doc_id'] = self.doc_iddata_dict['ent_list_str'] = self.ent_list_strdata_dict['mapped_list_str'] = self.mapped_list_strreturn data_dictfrom typing import Listclass DocEnt_list(BaseModel):data_list: List[DocEnt]doc_ent_list = DocEnt_list(data_list=res_file_list2)result = []
for x in doc_ent_list.data_list:try:result.append(x.dict())except:passfrom sqlalchemy import create_engine, Column, Integer, String, Float, DateTime, func, Text, Index
from sqlalchemy.orm import sessionmaker,declarative_base
from datetime import datetimem7_24013_url = f"mysql+pymysql://xxx:xxx@172.17.0.1:24013/mydb"# from urllib.parse import quote_plus
# the_passed = quote_plus('!@#*')
# # 创建数据库引擎
m7_engine = create_engine(m7_24013_url)# 创建基类
Base = declarative_base()# 定义数据模型
class DocEntMap(Base):__tablename__ = 'doc_ent_map'id = Column(Integer, primary_key=True)# CompileError: (in table 'users', column 'name'): VARCHAR requires a length on dialect mysqldoc_id = Column(String(50))ent_list_str = Column(Text)mapped_list_str = Column(Text)create_time = Column(DateTime, default=lambda: datetime.now())# 创建索引__table_args__ = (Index('idx_doc_id', doc_id),Index('idx_create_time', create_time),)Base.metadata.create_all(m7_engine)
# 创建会话
Session = sessionmaker(bind=m7_engine)with Session() as session:for tem_result in result:# print(tem_result)try:session.add(DocEntMap(**tem_result))session.commit()except:pass

这段代码主要涉及以下几个部分:

  1. 导入模块和函数

    • from Basefuncs import *:从 Basefuncs 模块中导入所有内容。这通常用于导入一些基础功能函数或工具函数。
    • import numpy as np:导入 numpy 模块并将其别名设置为 np,用于数值计算。
    • from pydantic import BaseModel, field_validator:从 pydantic 模块中导入 BaseModelfield_validator,用于数据验证和模型定义。
    • from sqlalchemy import create_engine, Column, Integer, String, Float, DateTime, func, Text, Index:从 sqlalchemy 模块中导入用于数据库操作的各种类和函数。
    • from sqlalchemy.orm import sessionmaker, declarative_base:从 sqlalchemy.orm 模块中导入用于 ORM 操作的类和函数。
    • from datetime import datetime:导入 datetime 模块,用于处理日期和时间。
  2. 列出文件名并找出差异

    python">left_path = './left_v3/'
    right_path = './right_v3/'left_files = list_file_names_without_extension(left_path)
    right_files = list_file_names_without_extension(right_path)gap_files = left_files - right_files
    gap_flist = list(gap_files)
    gap_file_list = sorted(list(gap_flist))
    

    这段代码列出 left_pathright_path 目录下的文件名(不包括扩展名),并找出 left_path 中有但 right_path 中没有的文件名。

  3. 随机选择一个任务文件

    python">some_task_file = np.random.choice(gap_file_list)
    print(some_task_file)
    

    从差异文件列表中随机选择一个文件名,并打印出来。

  4. 保存占位符文件

    python">to_pickle('', some_task_file, right_path)
    

    将一个空字符串保存到 right_path 目录下,文件名为 some_task_file

  5. 加载任务数据

    python">some_task_data = from_pickle(some_task_file, left_path)
    

    left_path 目录下加载 some_task_file 文件的数据。

  6. 定义 ListBatchIterator

    python">class ListBatchIterator:def __init__(self, some_list, batch_size):self.some_list = some_listself.batch_size = batch_size@staticmethoddef slice_list_by_batch(list_length, batch_num):batch_list = list(range(0, list_length + batch_num, batch_num))res_list = []for i in range(len(batch_list) - 1):res_list.append((batch_list[i], batch_list[i + 1]))return res_listdef __iter__(self):the_slice_list = self.slice_list_by_batch(len(self.some_list), self.batch_size)for the_slice in the_slice_list:yield self.some_list[the_slice[0]:the_slice[1]]
    

    这个类用于将列表按批次分割,并提供迭代器功能。

  7. 发送 HTTP 请求并处理响应

    python">lb = ListBatchIterator(some_task_data, 1)
    res_list = []for small_list in lb:input_dict = {}input_dict['data_list'] = small_listserver_url = 'http://172.17.0.1:8001/ent_mapping/'resp1 = req.post(server_url, json=input_dict).json()res_list += resp1res_file_list2 = [x for x in res_list if x != 'detail']
    

    使用 ListBatchIterator 类按批次处理数据,并发送 HTTP 请求获取响应,然后将响应数据存储到 res_list 中。

  8. 定义数据模型

    python">class DocEnt(BaseModel):doc_id: strent_list: listmaaped_ent: list@propertydef ent_list_str(self):return ','.join(self.ent_list)@propertydef mapped_list_str(self):return ','.join(self.maaped_ent)def dict(self):data_dict = {}data_dict['doc_id'] = self.doc_iddata_dict['ent_list_str'] = self.ent_list_strdata_dict['mapped_list_str'] = self.mapped_list_strreturn data_dictclass DocEnt_list(BaseModel):data_list: List[DocEnt]
    

    定义 DocEntDocEnt_list 类,用于数据模型和验证。

  9. 处理结果并存入数据库

    python">doc_ent_list = DocEnt_list(data_list=res_file_list2)result = []
    for x in doc_ent_list.data_list:try:result.append(x.dict())except:passm7_24013_url = f"mysql+pymysql://xxx:xxx@172.17.0.1:24013/mydb"
    m7_engine = create_engine(m7_24013_url)Base = declarative_base()class DocEntMap(Base):__tablename__ = 'doc_ent_map'id = Column(Integer, primary_key=True)doc_id = Column(String(50))ent_list_str = Column(Text)mapped_list_str = Column(Text)create_time = Column(DateTime, default=lambda: datetime.now())__table_args__ = (Index('idx_doc_id', doc_id),Index('idx_create_time', create_time),)Base.metadata.create_all(m7_engine)
    Session = sessionmaker(bind=m7_engine)with Session() as session:for tem_result in result:try:session.add(DocEntMap(**tem_result))session.commit()except:pass
    

    将处理后的结果存入 MySQL 数据库中。

总结:
这段代码主要用于处理文件名差异、随机选择任务文件、加载任务数据、按批次处理数据、发送 HTTP 请求、处理响应、定义数据模型,并将结果存入数据库。


总体上,处理过程获取任务数据,然后ACK(在right立即创建文件,下一次worker不会再取到该任务)。然后将数据发起web请求进行处理(这里又涉及到序列化和反序列化),结果通过ORM存到mysql。

4 调度

使用apscheduler调度

python">from datetime import datetime
import os 
from apscheduler.schedulers.blocking import BlockingSchedulerdef exe_sh(cmd = None):os.system(cmd)# 后台启动命令 nohup python3 aps_v2.py >/dev/null 2>&1 &if __name__ == '__main__':sche1 = BlockingScheduler()# sche1.add_job(exe_sh,'interval', seconds=1, kwargs ={'cmd':'python3 ./main_handler/main.py'})sche1.add_job(exe_sh,'interval', seconds=1, kwargs ={'cmd':'python3 sniffer_v2.py'},max_instances=1,coalesce=True)sche1.add_job(exe_sh,'interval', seconds=1, kwargs ={'cmd':'python3 random_worker_v2.py'},max_instances=6,coalesce=True)print('[S] starting inteverl')sche1.start()

这段代码主要涉及以下几个部分:

  1. 导入模块

    • from datetime import datetime:导入 datetime 模块,用于处理日期和时间。
    • import os:导入 os 模块,用于与操作系统进行交互。
    • from apscheduler.schedulers.blocking import BlockingScheduler:从 apscheduler 模块中导入 BlockingScheduler,用于创建和调度任务。
  2. 定义 exe_sh 函数

    python">def exe_sh(cmd=None):os.system(cmd)
    

    这个函数用于执行传入的 shell 命令。

  3. 主程序

    python">if __name__ == '__main__':sche1 = BlockingScheduler()sche1.add_job(exe_sh, 'interval', seconds=1, kwargs={'cmd': 'python3 sniffer_v2.py'},max_instances=1, coalesce=True)sche1.add_job(exe_sh, 'interval', seconds=1, kwargs={'cmd': 'python3 random_worker_v2.py'},max_instances=6, coalesce=True)print('[S] starting interval')sche1.start()
    

    这段代码的主要功能是创建一个 BlockingScheduler 实例,并添加两个定时任务:

    • 第一个任务每秒执行一次 python3 sniffer_v2.py 命令,最多允许一个实例运行,并且合并执行。
    • 第二个任务每秒执行一次 python3 random_worker_v2.py 命令,最多允许六个实例运行,并且合并执行。

    max_instances 参数指定允许同时运行的最大实例数,coalesce 参数指定当多个任务触发时是否合并为一个任务执行。

  4. 后台启动命令

    python"># 后台启动命令 nohup python3 aps_v2.py >/dev/null 2>&1 &
    

    这是一个注释,说明如何后台启动这个脚本。nohup 命令用于在后台运行程序,并将输出重定向到 /dev/null2>&1 将标准错误输出重定向到标准输出。

总结:
这段代码使用 apscheduler 库创建了一个阻塞式调度器,并添加了两个定时任务,分别每秒执行不同的 Python 脚本。这些任务可以在后台运行,不会阻塞当前终端。


这里用aps,效果类似于使用threading

python">def worker(thread_id, some_data):print(f"Thread {thread_id} started")input_dict = {'data_list': [some_data]}  # 将单个数据条目包装在列表中# 如果 resp 是一个列表,直接使用它来创建 DocEnt_listif isinstance(resp, list):doc_ent_list = DocEnt_list(data_list=resp)result = [x.dict() for x in doc_ent_list.data_list]else:print(f"Thread {thread_id} received invalid data: {resp}")return []print(f"Thread {thread_id} finished with result: {result}")return result# 使用 ThreadPoolExecutor 来管理线程并获取结果
with concurrent.futures.ThreadPoolExecutor(max_workers=5) as executor:# 提交任务并获取 Future 对象futures = [executor.submit(worker, i, some_data) for i, some_data in enumerate(resp)]# 获取结果results = [future.result() for future in concurrent.futures.as_completed(futures)]print("All threads finished")
print("Results:", results)

5 总结

这种实现方式还是比较直观的,通过类似DBeaver之类的终端连接上数据库后,我们可以清楚的看到源数据,也可以看到随时间推移,不断的有处理好的数据存在结果数据库。

有些地方可以稍微关注的是:

  • 1 ORM可以挂clickhouse, 这样存储所占的空间更小,在后续的提取、统计数据时更快。但需要验证的是clickhouse的where in 效率。
  • 2 ORM是可以批量存数的,这个是稍微靠后才发现的。
  • 3 FastAPI + APScheduler + Celery + Dash 调度。 目前用了Flask-APScheduler和Flask-Celery,但感觉不是很趁手。之后把这几个组件分开来研究一下,再重新组装。特别是可视化和控制这块,需要结合ORM增强。

http://www.ppmy.cn/news/1519833.html

相关文章

差旅游记|绵阳:生活的意义在于体验

哈喽,你好啊,我是雷工! 几年前在微博上有个段子广为流传,说是梁朝伟哪天烦闷了,就去机场,赶上哪班就搭哪班,比如去伦敦广场晒太阳,发呆,喂鸽子,完了再搭最近…

Azure Data Factory 多选选项集不受支持

在用ADF往外部推数据时,会碰到CRM的一种数据类型,多选下拉框,如下图中的 如果我们把多选字段输入源字段中,会得到如下的提示 查询官方文档,则有如下的说法 所以把值往外推就需要变通下,例如使用一个文本字段…

爬虫:爬取MDPI杂志中国作者单位和邮箱

Python爬虫,简单来说,就是使用Python编程语言编写的一种自动化获取网页内容的程序。它们能够模拟人类浏览网页的行为,如访问网页、解析网页内容、甚至填写表单和点击链接等,从而帮助我们从互联网上大量收集和处理数据。Python爬虫…

dart 字符串截取

截取 String str "500001"; String lastThreeDigits str.substring(str.length - 3);在这个例子中,str.length - 3计算的是开始截取的索引位置,它从字符串的倒数第三个字符开始截取,一直到字符串的末尾。因此,lastTh…

Nginx学习(第二天)

一.Nginx高级配置 1.1 Nginx状态页 基于nginx 模块 ngx_http_stub_status_module 实现, 在编译安装nginx的时候需要添加编译参数 --with-http_stub_status_module 否则配置完成之后监测会是提示法错误 注意: 状态页显示的是整个服务器的状态,而非虚拟主机的状态 …

运维问题0001:MM模块-MIGO收货报错“消息号 M7036 对于采购订单********无收货可能”

1、问题解析: 该报错为SAP标准报错类型,针对公司不同配置/业务设计/校验逻辑,导致该问题原因比较多。 常见的问题总结如下: 1)输入的PO信息有问题(例如:PO输入错误/PO删除状态/PO冻结状态/PO已完成收货等…

【Next】3. 开发规范

笔记来源:编程导航 1、约定式路由 Next.js 使用 约定式路由,根据文件夹的结构和名称,自动将对应的 URL 地址映射到页面文件。 常见的几种路由规则如下: 1)基础规则:以 app 目录作为根路径,根…

企微获客链接 中文乱码问题处理

企微获客链接 中文乱码问题处理 问题背景问题处理补充内容 问题背景 为了推广产品,同时更好的服务客户,公司在接入企业微信后,需要用到企微获客链接相关推广操作,那么通过API 接口创建企微获客链接时,出现了中文乱码问…

MYSQL————联合查询

联合多个表进行查询 设计数据时把表进行拆分,为了消除表中字段的依赖关系,比如部分函数依赖,传递依赖,这时会导致一条SQL查出来的数据,对于业务来说是不完整的,我们就可以使用联合查询把关系中的数据全部查…

Java 入门指南:Java 并发编程 —— Condition 灵活管理线程间的同步

Condition Condition 是 Java 并发编程中的一种高级同步工具,它可以协助线程之间进行等待和通信。提供了一种比传统的 wait() 和 notify() 更加灵活的方式来管理线程间的同步。Condition 接口通常与 Lock 接口一起使用,允许更细粒度的控制线程的等待和唤…

DNS服务器的配置(服务名named,端口53)

目录 前言 配置文件 DNS服务器的配置 主配置文件 扩展配置文件 区域配置文件 重启服务 配置防火墙 配置客户端dns 前言 DNS服务器的主要作用是将人类可读的域名转换为机器可读的IP地址,从而方便用户访问互联网资源。 在互联网中,设备需要通过I…

前端性能优化:使用Vue3+TS+Canvas对图片进行压缩后再上传,优化带宽,减小服务器存储成本,减少流量损耗

在上传图片之前,对图片进行压缩。看到这里是不是有点懵,前端怎么压缩图片呢,这不应该是后端做的吗? 但是我在开发的时候接到了这样一个需求,要求对用户上传的图片进行一定的压缩,而且并且尽量还原图片的清…

vue项目中scss文件导出,js文件引入scss文件时为空{}

解决办法一: 将scss文件重命名为 ‘原名.module.scss’ 解决办法二:降低vue脚手架的版本 "vue/cli-plugin-babel": "~4.5.0", "vue/cli-plugin-eslint": "~4.5.0", "vue/cli-service": "~4.5.0…

二十五、go语言的通道

目录 一、收发通信 二、将通道作为参数传递(读、写、读写) 三、select 1、先收到消息的先执行 2、一直没有收到消息退出通道 3、不知道何时退出情况下退出通道 go语言中的goroutine可以看成线程,但是又不能看成和其它语言一样的线程&am…

【Kubernetes知识点问答题】Namespace(命名空间)

目录 1. 什么是 K8s 的 namespace? 2. 系统默认创建了哪几个 namespace? 1. 什么是 K8s 的 namespace? 在 K8s 中, Namespace(命名空间)提供了一种机制,将同一集群中的资源划分为相互隔离的组…

c# net8调用vc写的dll

dll程序(vc,x86) 头文件 extern "C" int __declspec(dllexport) WINAPI add(int a, int b);实现 int WINAPI add(int a, int b) {return a b; }c#/net8 函数声明: [DllImport("dll/Dll1.dll", CallingConvention CallingCo…

Git 提交代码注释信息规范

在团队协作开发过程中,规范的 Git 提交信息不仅能提高代码维护的效率,还能让其他开发者更容易理解每次提交的目的和内容。下面是常用的 Git 提交信息类型及其详细说明。此外,还包括一些额外的提交类型,以便更全面地覆盖开发过程中…

线程池相关知识点

线程池是什么相信大家都是知道的,所以这里就不做解释了,直接看相关知识点吧。 初始化线程池方法 继承ThreadPool 实现Runnable 实现Callable 接口 FutureTask (可以拿到返回结果,可以处理异常) 核心参数 corePoo…

将string类中能够实现的操作都封装在MyString类中

包括&#xff1a; 构造函数 析构函数 重载 &#xff0c;[]&#xff0c;,,,!,<,>,<,>,<<,>>; at&#xff1b; data&#xff1b; c_str; empty; length; capasityacity; clear; push_back; pop_back; append; 程序中我封装了大部分&#…

el-time-select 动态增加时间

<template><div><div v-for"(item, index) in timeSlots" :key"index"><el-time-select placeholder"起始时间" v-model"item.startTime" :picker-options"{start: 00:00,step: 00:15,end: 23:59,}"&g…