xilinx Mailbox 中的ipi message地址计算方式

server/2024/9/23 3:20:17/

适用于openAmp mailbox ipi id对应的ipi message地址计算方式

官方openamp硬件配置解析 OpenAMP Base Hardware Configurations - Xilinx Wiki - Confluence

openamp官方设备树 meta-openamp/meta-xilinx-tools/recipes-bsp/device-tree/files/zynqmp-openamp.dtsi at rel-v2022.1 · Xilinx/meta-openamp · GitHub

一 推导versal ipi地址换算方式

versal系列文档 AMD Technical Information Portal

可以从上面得知,ipi1基地址是0xff3f0600 并通过这个地址划分了512字节大小。从上面知道每一个通道会划分每一个32字节给其他通道通信,并依顺序排序为psm,pmc,IPi0, ipi1, .....

因此在ipi1要跟ipi3交互的地址为: 0xff3f0600+140, 0xff3f0600+160, 得到上述ipimessage地址 0xff3f0740,0xff3f0760

以此类推,ipi3 基地址是0xff3f0a00, 其跟ipi1通信的地址为 0xff3f0a00+0c0, 0xff3f0a00+0e0,

得到上述设备树中的0xff3f0ac0,0xff3f0ae0

二 推导zynqmp ipi地址换算方式

 ug1085最新文档 AMD Technical Information Portal

根据上述versal文档和zynqmp文档(上述图片知道)ipi meassge地址划分:实际上从上述图片看,ch7地址为0xff990600,指向的ch1:0xff990640,0xff990660,

ch1地址为0xff990000 , 指向的ch7:0xff9900c0 ,0xff9900e0

但是从官方以下图片设备树看,ch7→ch1通信地址为0xff990600 0xff990620 因此判断ch1应该是每一组通道排在第一组的,类似versal中的psm,而非ch0为第一组。其他地址划分以此类推

但是上述明显写着ch0 为 Si agent number = 1。因此个人觉得是下面设备树ch7→ch1地址写的有问题

openAmp 搭建双核异构通信参考链接linux 2021版本

非petallinux操作的xilinx zynqmp openamp核间通信框架搭建核测试(APU :linux2021 + rpu1(裸机))-CSDN博客


http://www.ppmy.cn/server/13930.html

相关文章

WIFISKY 7层流控路由器 confirm.php RCE漏洞复现

0x01 产品简介 WIFISKY-7层流控路由器是一款可用于家庭或办公环境的无线路由器,具备流控功能以优化网络流量和提供更稳定的网络连接。该路由器采用了7层流控技术,能够依据网络数据包的内容进行智能管理,从而实现对网络流量的精细化控制和优化。这种技术可以提升网络的整体性…

短信视频提取批量工具,免COOKIE,博主视频下载抓取,爬虫

痛点:关于看了好多市面的软件,必须要先登录自己的Dy号才能 然后找到自己的COOKIE 放入软件才可以继续搜索,并且无法避免长时间使用 会导致无法正常显示页面的问题。 有没有一种方法 直接可以使用软件,不用设置的COOKIE的方法呢 …

汽车研发项目进度管理的挑战与优化策略

随着汽车行业的快速发展和市场竞争的加剧,新车型研发项目的进度管理成为车企赢得市场的关键。然而,由于汽车研发项目通常具有投资大、周期长、技术难度高、参与方众多等特点,项目进度管理面临着诸多挑战。为了提升车型研发效率、缩短研发周期…

深度学习框架比较:TensorFlow vs PyTorch

TensorFlow和PyTorch是目前最流行的两个深度学习框架。它们都提供了强大的功能和灵活性,用于构建和训练复杂的深度学习模型。但是,它们在设计理念、用户体验和特定用例支持方面存在一些差异。以下是TensorFlow和PyTorch之间的比较,涵盖了它们…

打开下月物料期间(MMPV)出现报错或不允许

月底或年底提前开启下月的物料账期,出现报错或不允许情况。一般经常出现在年底20XX12期,如:2023-12-29需要提前开启2024-01物料账期。 如下设置: T-CODE: SU01->参数,添加如下参数 MMPV_READ_NOTE,参…

大型语言模型高效推理综述

论文地址:2404.14294.pdf (arxiv.org) 大型语言模型(LLMs)由于在各种任务中的卓越表现而受到广泛关注。然而,LLM推理的大量计算和内存需求给资源受限的部署场景带来了挑战。该领域的努力已经朝着开发旨在提高LLM推理效率的技术方…

从C到C++

1、结构体内存对齐 在vs里面,对齐数为8,a占一个字节,在0这个位置存放,1到7这些位置为空,都是0;b从8这个位置存放,double占8个字节,所有8到15都是b;c从15位置存放&#xf…