C++中矩阵的介绍及相关应用扩展详解

ops/2024/9/24 5:17:09/

1. 矩阵概念

在数学中,矩阵(Matrix)是一个按照长方阵列排列的复数或实数集合,最早来自于方程组的系数及常数所构成的方阵。这一概念由19世纪英国数学家凯利首先提出。

矩阵是高等代数学中的常见工具,也常见于统计分析等应用数学学科中。在物理学中,矩阵于电路学、力学、光学和量子物理中都有应用;计算机科学中,三维动画制作也需要用到矩阵,尤其是计算机的图像处理之中,利用矩阵表示图像元素十分常见。 矩阵的运算是数值分析领域的重要问题。将矩阵分解为简单矩阵的组合可以在理论和实际应用上简化矩阵的运算。

由 m × n 个数aij排成的m行n列的数表称为m行n列的矩阵,简称m × n矩阵

这m×n 个数称为矩阵A的元素,简称为元,数aij位于矩阵A的第i行第j列,称为矩阵A的(i,j)元,以数 aij为(i,j)元的矩阵可记为(aij)或(aij)m × n,m×n矩阵A也记作Amn。

注意:矩阵的概念很多,而且矩阵的运算属于计算机图形学,数学等学科的必备知识,其如果要完全写下来则完全可以写出一本书,本文知识简单介绍,矩阵的基本知识必备要了解加减乘除,其中以乘法在计算机中又使用众多。

2. 矩阵乘法

两个矩阵的乘法仅当第一个矩阵A的列数和另一个矩阵B的行数相等时才能定义。如A是m×n矩阵和B是n×p矩阵,它们的乘积C是一个m×p矩阵

并将此乘积记为: C=AB

3.矩阵乘法实现代码

C语言中实现,核心思路在于利用for循环每一位的相乘,矩阵1的行与矩阵2的列相乘,逐步补全整个矩阵

#include<stdio.h>
#include<stdlib.h>
#include<string.h>#define M 100int main(){int i,j,k;int matrix1[M][M],matrix2[M][M],row1,col1,row2,col2;int ans[M][M];      //运算结果,矩阵输出printf("输入第一个矩阵的行高和列宽:"); scanf("%d%d",&row1,&col1);printf("输入第一个矩阵:\\n");for(i=0;i<row1;i++){for(j=0;j<col1;j++){scanf("%d",&matrix1[i][j]); } } printf("输入第二个矩阵的行高和列宽:");scanf("%d%d",&row2,&col2);printf("输入第二个矩阵:\\n");for(i=0;i<row2;i++){for(j=0;j<col2;j++){scanf("%d",&matrix2[i][j]); } }memset(ans,0,sizeof(ans));printf("运算结果为:\\n"); for(i=0;i<row1;i++){for(j=0;j<col2;j++){for(k=0;k<col1;k++){ans[i][j]=ans[i][j]+matrix1[i][k]*matrix2[k][j]; } } }for(i=0;i<row1;i++){for(j=0;j<col2;j++){printf("%d ",ans[i][j]); } printf("\\n"); } return 0;
}

4.矩阵加减法操作实现

对于矩阵而言,我们首先要学习他的基本概念,其次就如同学习常规数字一样需要掌握基本的加减乘,再者,更具相关的概念学会求诸如秩,点阵,矩阵运算值等,接着学习一些特殊的矩阵操作,如矩阵的翻转,最后这些概念完善之后,请开始学习诸如矩阵的卷积核运算,稀疏矩阵,增广矩阵等这些特殊的矩阵

4.1矩阵加法

运算规则,将两个矩阵的每一行每一列进行对齐,再直接进行元素间的相加,如a11和b11相加。

简言之,两个矩阵相加,即它们相同位置的元素相加!

注意:只有对于两个行数、列数分别相等的矩阵(即同型矩阵),加减法运算才有意义,即加减运算是可行的.同时,对于加法而言,A+B与B+A是没有什么不同的,他们的结果运算是一样的,详情可以参考代码:

#include<iostream>
using namespace std;
const int maxn=505;
int a[maxn][maxn]; 
int b[maxn][maxn]; 
int ans[maxn][maxn];int main(){//矩阵加法int n,m;cin >>n>>m;//输入a for(int i=0;i<n;i++){for(int j=0;j<m;j++){cin >>a[i][j];}}//输入b for(int i=0;i<n;i++){for(int j=0;j<m;j++){cin >>b[i][j];}}//相加 for(int i=0;i<n;i++){for(int j=0;j<m;j++){ans[i][j]=a[i][j]+b[i][j];}}//输出for(int i=0;i<n;i++){for(int j=0;j<m;j++){cout<<ans[i][j]<<' ';}cout<<endl;}return 0;
}

4.2矩阵减法

同上文,简言之,两个矩阵相减,即它们相同位置的元素相减!

对于上文而言,我们只需要在算法中将符号+替换成符号-进行减法运算即可。

简言之,两个矩阵相加减,即它们相同位置的元素相加减!

#include<iostream>
using namespace std;
const int maxn=505;
int a[maxn][maxn]; 
int b[maxn][maxn]; 
int ans[maxn][maxn];int main(){//矩阵加法int n,m;cin >>n>>m;//输入a for(int i=0;i<n;i++){for(int j=0;j<m;j++){cin >>a[i][j];}}//输入b for(int i=0;i<n;i++){for(int j=0;j<m;j++){cin >>b[i][j];}}//相减for(int i=0;i<n;i++){for(int j=0;j<m;j++){ans[i][j]=a[i][j]-b[i][j];}}//输出for(int i=0;i<n;i++){for(int j=0;j<m;j++){cout<<ans[i][j]<<' ';}cout<<endl;}return 0;
}

 5.矩阵扩展-简单的算卷积

接着上文,矩阵进行更深入的学习就需要学习更多的处理了,矩阵被运用在很多的领域,这里简单以计算机图形处理的重要概念——卷积,为例进行说明:

卷积。用一个模板去和另一个图片对比,进行卷积运算。目的是使目标与目标之间的差距变得更大。卷积在数字图像处理中最常见的应用为锐化和边缘提取,此外,在人工智能中的图像处理也极为常见,这里的运算介绍不提供繁杂的公式(相信短时间内也看不懂)使用Zero padding,unit strides(零填充,单位滑动)的计算方式进行举例。

(图片来自外国的学术论坛datascience)

对于此类计算,有两个矩阵a和b,矩阵a是原矩阵,b是卷积核,他们的运算过程是,首先对b矩阵进行倒置,如:

接着,再将待处理矩阵的部分与卷积核进行逐个进行相对应的运算,本例子由于按照边缘’零’处理的方式,因此边缘全部按照0进行运算,如图运算的过程为:01+02+03+02+11+22+01+12+2*1=9,这样的一个值计算完成后,对每一个值再度进行运算即可。

以卷积核为3*3为例,代码样例为:

#include <iostream>
using namespace std;const int maxn = 105;
int n,m;
int org[maxn][maxn]={0};
int ker[3][3]={0};
int ans[maxn][maxn]={0};int main(){cin>>n>>m;//待处理的矩阵for(int i=1;i<=n;i++){for(int j=1;j<=m;j++){cin>>org[i][j];}}//直接以倒置的方式进行输入for(int i=2;i>=0;i--){cin>>ker[i][2]>>ker[i][1]>>ker[i][0];}//卷积运算    for(int i=1;i<=n;i++){for(int j=1;j<=m;j++){int tmp=0;for(int a=0;a<3;a++){for(int b=0;b<3;b++){tmp += (ker[a][b] * org[i-1+a][j-1+b]);}}ans[i][j]=tmp;}}//结果输出for(int i=1;i<=n;i++){for(int j=1;j<=m;j++){cout<<ans[i][j]<<' ';}cout<<endl;}return 0;
}

6. 结语

从前文的代码实现可以看出,矩阵在整个计算机中使用非常广泛,而其实现方式又无不与二维数组这个概念相对应,二维数组是最简单的矩阵表示方式,其便利性可以让我们设计出相当多的矩阵相关的算法,与一维的运算不同,二维的运算无论从理解出发还是计算乃至代码设计出发,都复杂了许多,这就需要充分的数学知识做铺垫,也希望读者能够细细理解代数这一门学科的奥妙。


http://www.ppmy.cn/ops/111086.html

相关文章

linux下安装单机minio环境

linux下安装单机minio环境 MinIO是一个对象存储解决方案&#xff0c;它提供了与Amazon Web Services S3兼容的API&#xff0c;并支持所有核心S3功能。 本文实践单节点部署 MinIO服务器在 Linux 上&#xff0c;主要用于早期快速开发和评估MinIO存储服务器在S3存储层API的兼容性…

3. 进阶指南:自定义 Prompt 提升大模型解题能力

怎么判断 Prompt 的好坏&#xff0c;有什么问题有着标准答案么&#xff1f; 答&#xff1a;让大模型求解数学问题。 李宏毅老师的 HW4 正好提到了有关数学问题的 Prompt&#xff0c;所以我决定中间插一篇这样的文章。通过本文你将&#xff1a; 了解各种 Prompt 如何影响大型语言…

深度学习--对抗生成网络(GAN, Generative Adversarial Network)

对抗生成网络&#xff08;GAN, Generative Adversarial Network&#xff09;是一种深度学习模型&#xff0c;由Ian Goodfellow等人在2014年提出。GAN主要用于生成数据&#xff0c;通过两个神经网络相互对抗&#xff0c;来生成以假乱真的新数据。以下是对GAN的详细阐述&#xff…

在AIoT设备上加速深度神经网络推理的进展:一项综述

这篇论文的标题是《Advancements in Accelerating Deep Neural Network Inference on AIoT Devices: A Survey》&#xff0c;作者是 Long Cheng, Yan Gu, Qingzhi Liu, Lei Yang, Cheng Liu, Ying Wang。论文主要探讨了在人工智能物联网&#xff08;AIoT&#xff09;设备上加速…

linux第一课(操作系统核心)

一.关于linux (1)linux是一款开源的操作系统(是多用户&#xff0c;多任务&#xff0c;多线程)。 (2)一般所说的linux指的是linux核心&#xff0c;即对计算机硬件资源负责调度管理&#xff0c;主要职责是进程管理&#xff0c;内存管理文件系统&#xff0c;设备驱动&#xff0c…

什么是CPU、GPU、NPU?(包懂+会)

目录 举例子 CPU&#xff1a;主厨 GPU&#xff1a;大量的厨房助理 NPU&#xff1a;面包机 总结 讲理论 CPU&#xff08;中央处理器&#xff09; GPU&#xff08;图形处理单元&#xff09; NPU&#xff08;神经网络处理单元&#xff09; 对比分析 举例子 CPU&#xff…

vue之 package.json和package-lock.json

一、package.json 定义了当前项目所需要引用的各个模块&#xff0c;可以手工修改配置&#xff0c;也可以删除后&#xff0c;使用npm init命令重新自动生成。 但是该文件只锁定大版本号&#xff0c;也就是版本号的第一位&#xff0c;所以你会发现两个文件中同一个包的版本号不一…

Flutter iOS混淆打包

1. Xcode配置好环境和版本号 2. Terminal输入混淆打包命令 flutter build ipa --obfuscate --split-debug-info./symbols 生成包路径&#xff1a;项目名/build/ios/archive/Runner. xcarchive 3. 将上述文件复制到Xcode下 ~/Library/Developer/Xcode/Archives 4. 打开Xcode-…