数据结构(五)——图

1. 图的基本概念

1.1 图的定义

数据结构(五)——图——图的定义.png

1.2 有向图和无向图

数据结构(五)——图——无向图和有向图.png

在有向图中,使用圆括号表示一条边,圆括号里元素位置互换没有影响。

在无向图中,使用尖括号表示一条边,尖括号里元素位置互换则表示的是不同的两条边。

1.3 简单图和多重图

数据结构(五)——图——简单图.png

简单图可以解决绝大多数的问题,所以在数据结构里只研究简单图。

1.4 顶点的度、入度、出度

数据结构(五)——图——顶点的度、入度、出度.png

1.5 顶点-顶点的关系描述

数据结构(五)——图——顶点-顶点的关系描述.png

1.6 连通图和强连通图

数据结构(五)——图——连通图和强连通图.png

注意连通图是基于无向图的,强连通图是基于有向图的。

1.7 子图

数据结构(五)——图——无向图的子图.png

所谓子图就是A图的结点和边是B图的子集,则称A为B的子图。若A的结点数等于B的结点数,则称A为B的生成子图。上面是无向图的子图与生成子图,在有向图中的概念是一样的,如下。

数据结构(五)——图——有向图的子图.png

1.8 连通分量

数据结构(五)——图——连通分量.png

注意,连通分量是基于无向图的概念,无向图中的极大连通子图称为连通分量。

极大连通子图:子图必须连通,且包含尽可能多的顶点和边。

1.9 强连通分量

数据结构(五)——图——强连通分量.png

注意,强连通分量是基于有向图的概念,有向图中的极大强连通子图称为强连通分量。

极大强连通子图:子图必须强连通,同时保留尽可能多的边。

1.10 生成树

数据结构(五)——图——生成树.png

连通图的生成树是指包含图中全部顶点的一个极小连通子图。

极小连通子图:边尽可能的少,但要保持连通。

注意连通图的生成树的表示不唯一。

1.11 生成森林

数据结构(五)——图——生成森林.png

非连通图中连通分量的生成树构成了非连通图的生成森林。

1.12 边的权&带权图

数据结构(五)——图——边的权&带权图.png

边的权,就是在一个图中,每条边都可以标上具有某种含义的数值,该数值称为该边的权值。这个数值可以代表距离,重量等。

1.13 稀疏图和稠密图

数据结构(五)——图——稀疏图和稠密图.png

注意,上图虽然给了一个区分稀疏图和稠密图的公式,但实际上并没有明确的界限,即使使用上述公式求出来是稀疏图,也可以说是稠密图。但考试时可以以这个为界去区分。

1.14 树和有向树

数据结构(五)——图——树和有向树.png

注意,树是连通图,但有向树不一定是强连通图。

1.15 图的概念小结

数据结构(五)——图——图的概念小结.png

2. 图的存储

2.1 邻接矩阵法

数据结构(五)——图——邻接矩阵.png

上图是邻接矩阵法的存储图,以及使用C语言的描述。

可以看到,所谓邻接矩阵法就是使用一个一维数组存储图中顶点的信息,再用一个二维数组存储图中边的信息,而存储顶点之间的邻接关系的二维数组称为邻接矩阵。

上图使用Vex数组存储顶点,对于无向图,根据对应顶点的下标,可以查找到该顶点在二维数组里所对应的行或列。也就是说可以通过查询A和D的下标,进而可以找到以A为行以D为列对应位置的数据,如果是1则说明两者之间有边,0则没边。如下图的对应关系:

数据结构(五)——图——邻接矩阵值.png

对于有向图来说,由于边带了方向,所以查找时要确定查找的是谁到谁的边,比如如果是从A到B的边,就要把A当行,把B当列去查找。一般存储时,也是把边从谁射出,谁当行,射入谁,谁当列。

下面看一下,对于无向图和有向图,如何分别求其顶点的度、入度和出度。

数据结构(五)——图——邻接矩阵求度.png

对于无向图,求i个结点的度就是看第i行或第i列有几个1。如果有n个结点,则有n行和n列,所以查找i结点所对应的行或列的时间复杂度就是O(|V|)。

对于有向图,第i个结点的出度就是求第i行有几个1;入度就是求第i列有几个1。求度只需要把入度和出度加起来即可。同无向图一样,求有向图的出度和入度的时间复杂度都是O(|V|),而求度的核心还是要求出度和入度,所以求度的时间复杂度也是O(|V|)。

上面所说全都是不带权图,对于不带权图,只需要用0和1表示两种连接状态即可。下面看一下带权图的表示。

数据结构(五)——图——带权图的邻接矩阵.png

对于带权图来说,数组里存储的就不在是表示连接状态的0和1,而是在有边处存储上边的权值,如上图。如果带权图里有两点之间没有边,则对应的邻接矩阵里用0或无穷来表示,有的时候也会使用邻接矩阵对角线上用0表示没有边,其余地方用无穷表示没边。

带权图的C语言描述如上图,对于无穷的表示,可以通过使用int变量所存储的上限值来表示无穷,另外在Edge数组里,要把对应两点间的连接关系改为边的权值。

下面对邻接矩阵进行性能分析:

数据结构(五)——图——邻接矩阵性能分析.png

使用领接矩阵法存储图及其边的关系,如果图有n个结点,就要建立一个n×n的数组,所以空间复杂度为O(|V|2)。因此,如果图中边数很少,使用此方法就会浪费大量的存储空间,所以领接矩阵法适合存储稠密图。

另外,不难发现,无向图的领接矩阵是对称矩阵,所以可以压缩存储空间,即存储上三角或下三角。(这部分内容在我写的数据结构(二)——栈与队列与数组中,可以回去复习一下。)

最后看一下邻接矩阵的性质:

数据结构(五)——图——邻接矩阵的性质.png

上图已经给出了领接矩阵的性质,这里再稍微解释一下,例如上图下的例子,A2[1][4]=1表示的就是从A结点到D结点长度为2的路径的数目为1。对于图G的领接矩阵A,A2可以得到右下角的矩阵,这个矩阵里对应两个结点确定的数值,表示从一个结点到另一个结点长度为2的路径的数目。所以在考试时,如果其一个图的某点到另一点的长度为n的路径的数目,我们可以先写出其领接矩阵,然后将n个领接矩阵相乘,得到最后的矩阵,再根据要找的两个点找到由该两点确定的矩阵位置上的数据,这就是两点间的长度为n的路径的数目。

2.2 邻接表法

上面使用的领接矩阵法是用数组实现的顺序存储,空间复杂度较高,不适合存储稀疏图。所以,这部分学习邻接表法存储图,邻接表法是通过顺序+链式存储实现的,使用邻接表可以减少不必要的空间浪费。

数据结构(五)——图——邻接表法.png

上图是领接表的存储结构及C语言描述。

可以用一维数组来存储各个顶点的信息,然后对于每个顶点,可以通过指针指向它的第一条边,边的描述如上图左下,对于每一条边,它还可以指向下一条与顶点相连边。当最后一个与顶点相连的边没有可指的地方时,就会令它的指向下一条弧的指针为NULL,表示之后再无与顶点相连的边。可以参考上图的例子来辅助理解。

下面看一下有向图的领接表:

数据结构(五)——图——有向图邻接表法.png

有向图的邻接表存储思路与无向图一致,只不过需要注意弧的方向性。

到这里,再细看无向图的邻接表法,可以发现,无向图的边没有方向性,按理说每个弧存储一遍就可以了,但是邻接表里却存储了两遍,这就导致边结点数量变成了2|E|,整体空间复杂度就变成了O(|V|+2|E|)。

而有向图由于边的方向性,所以不存在存储两遍的问题,所以有向图的整体空间复杂度就是O(|V|+|E|)。

现在思考一下,如何求顶点的度、入度和出度?

对于无向图来说,没有出度和入度的概念,所以找一个顶点的度,只需要看后面跟了多少个弧即可。

而对于有向图来说,若要看某一个顶点出度只需要看后面跟了多少个弧即可,但对于入度,则要遍历除该顶点外的每一个顶点,查看每一个顶点后有没有指向该顶点的弧,把所有顶点指向该顶点的弧的数量加起来才能求得入度,度只需要把入度和出度相加即可。所以可以看到,对于有向图来说吗,找一个结点的入度是很麻烦的,这也是有向图一个很大的缺点。

若要找到与顶点相连的边/弧,实质就是找顶点的度,所以可以参考上面的无向图和有向图找度。

数据结构(五)——图——邻接表的表示.png

这里再补充一点,如上图,邻接表法表示的图并不唯一,如上图,对于该无向图至少可以画出上面两种邻接表的表示。但对于邻接矩阵,只要确定了顶点编号,图的邻接矩阵表示方式就唯一确定了。

下面总结一下邻接表与邻接矩阵:

数据结构(五)——图——邻接表与邻接矩阵.png

这里说一下,虽然邻接表适合存储稀疏图,但对于无向图来说,邻接表还是浪费了相当一部分资源,所以邻接表比较适合的应该是存储有向图中的稀疏图,不过这点知道即可,考试时也可以直接说邻接表适合存储稀疏图,这样也是对的。

2.3 十字链表(存储有向图)

上面说过,邻接矩阵最主要的问题是空间复杂度太高,而邻接表最主要的问题是,当存储有向图,找有向图的入边不方便。为此,提出了十字链表法,通过这种方法可以解决这两个问题。

数据结构(五)——图——十字链表存储有向图.png

十字链表结构如上图,定义了顶点结点和弧结点分别代指顶点和弧,另外这两个顶点的相关结构及对应字段的含义上图也都给出。此外,上图下是对左下角有向图的十字链表的表示。这里可以结合图自己理解一下。

使用十字链表法存储有向图,想要找到顶点的入度,只需要沿着橙色指针往后遍历即可;若想要找到顶点的出度,只需要沿着绿色指针往后遍历即可。

下面分析一下十字链表法的性能:

数据结构(五)——图——十字链表的性能分析.png

使用十字链表法存储有向图,所需空间复杂度为O(|V|+|E|),同邻接表法一样优秀,并不需要像邻接矩阵一样需要O(|V|2)的数量级。

另外注意,十字链表只用于存储有向图。

2.4 邻接多重表(存储无向图)

数据结构(五)——图——无向图的邻接矩阵与邻接表存储.png

使用邻接矩存储无向图的问题是空间复杂度太高。而邻接表最主要的问题是重复存储,这时候进行删除操作,如果要删除边还好,只需要从边的两个顶点里删除即可;但要删除顶点就很麻烦,删除该顶点以后,还要遍历邻接表,找到与该顶点相连的顶点,删去相连顶点里存储的与被删顶点相连的信息,时间复杂度太高。所以提出了使用邻接多重表的方法来存储无向图。

数据结构(五)——图——邻接多重表.png

邻接多重表和十字链表的存储一样,只不过由于邻接多重表用于存储无向图,所以不需要区分两个结点的左右顺序,邻接多重表的存储可以结合上图例子进行理解。

下面看一下,如果删除边的操作:

数据结构(五)——图——邻接多重表删除边.png

上面是删除A和B相连的边,找到对应的边结点删去以后,由于橙色存储A顶点的边,绿色存储B顶点的边,为了防止删除以后A、B顶点指针无指向,所以在删除之前,要先顺着该边结点的橙色指针找到下一条边对应的结点,让A指向;然后再顺着该边结点的绿色指针找到下一条边对应的结点,让B指向。

下面下,如果删除顶点的操作:

数据结构(五)——图——邻接多重表删除顶点.png

上面是删除顶点E的操作,删除顶点E以后,其所有指向的边结点也都要删除。除此以外,其余若有指向E的边结点的指针都要置为NULL。

再来看一下邻接多重表的空间复杂度,由于每条边只对应一份数据,所以邻接多重表的时间复杂度为O(|V|+|E|),比邻接表的空间复杂度还要优秀。此外,邻接多重表的删除边、结点等操作也很方便。但需要注意,邻接多重表只适用于存储无向图。

2.5 图的存储小结

数据结构(五)——图——图的存储小结.png

注意,由于十字链表和邻接多重表比较复杂,考试时一般不会要求手写代码,所以对于这两种方式,知道其一些特性即可。

3. 图的基本操作

3.1 图的基本操作总览

数据结构(五)——图——图的基本操作.png

由于十字链表和邻接多重表比较复杂,所以考研中常考的还是邻接矩阵和邻接表,所以接下来只探讨邻接矩阵和邻接表的基本操作。

3.2 判断图G是否存在边或弧

数据结构(五)——图——图的基本操作Adjacent.png

对于无向图,如果用邻接矩阵存储,想判断两个顶点间是否有边,只需要找到这两个顶点对应的元素是否为1即可,因此采用邻接矩阵实现判断顶点间是否有边的操作,只需要O(1)的时间复杂度。

如果用邻接表存储,想判断两个顶点间是否有边,只需要判断一个顶点的边结点是否有另一个结点即可。最好的时间复杂度为O(1),最坏的时间复杂度为O(|V|)。

所以如果存储无向图,想实判断两个顶点间是否有边,使用邻接矩阵法更好一点。

数据结构(五)——图——图的基本操作有向图的Adjacent.png

对于有向图实现判断两个顶点间是否有边的操作也是一样的,重点是要记住有向图的边是有方向的,要注意区分边的方向,找到对应的顶点。

3.3 求图G中和结点x邻接的边

数据结构(五)——图——图的基本操作之无向图的Neighbors.png

对于无向图,如果用邻接矩阵存储,想求和结点x邻接的边,只需要遍历x对应的行或列,检查哪些地方是1即可,因此采用邻接矩阵实现,需要O(|V|)的时间复杂度。

如果用邻接表存储,想求和结点x邻接的边,只需要遍历x的边结点即可。最好的时间复杂度为O(1),即只有一个边结点,最坏的时间复杂度为O(|V|),即有|V|个边结点。

所以如果存储无向图,想实现求和结点x邻接的边的基本操作,使用邻接表法更好一点。

数据结构(五)——图——图的基本操作之有向图的Neighbors.png

如果存储有向图,想求和结点x邻接的边,如果使用邻接矩阵,求出边只要遍历x对应的行,求入边只需要遍历x对应的列。时间复杂度为O(|V|)。

但如果使用邻接表,遍历出边和无向图一样,只需要遍历x的边结点即可。但遍历入边,就需要遍历邻接表的所有边结点,时间复杂度为O(|E|)。

所以如果存储有向图,想实现求和结点x邻接的边的基本操作,使用邻接矩阵法更好一点,但也不是绝对的。比如说存储的是一个稀疏图,这是|E|的值就很小,此时使用邻接表法实现该功能也可以得到不错的表现。

3.4 在图G中插入顶点x

数据结构(五)——图——图的基本操作之无向图的InsertVertex.png

由于刚插入该顶点,所以该顶点与其他顶点是不相连的。如果采用邻接矩阵存储,只需要在保存这些顶点的数组后面的空白位置,写入新结点的数据即可,在邻接矩阵中,与新结点对应的行和列就可以表现当前新结点与其他顶点的关系。此时,刚插入新结点,看似要在邻接矩阵里插入一堆0,但是实际上矩阵化0操作应该是在矩阵初始化时就已经做好了,所以插入新结点的唯一开销,就是写入新结点的相关信息,因此可以在O(1)的时间复杂度内完成。

如果采用邻接表存储,只需要在数组末尾插入新结点信息即可,由于新结点刚插入还没有连任何边,所以把新结点指针设为NULL即可,同样使用O(1)复杂度。

有向图也类似,这里就不在叙述有向图。

3.5 在图G中删除顶点x

数据结构(五)——图——图的基本操作之无向图的DeleteVertex.png

对于无向图,以上图中删除C为例,如果采用邻接矩阵存储,就需要删除C对应的行和列,即把C对应的行和列的数据清空。清空以后容易想到的方法就是把删除的行和列周围的元素在拼接起来,但这样做会导致大量数据元素移动,开销很大。所以可以采用置0的方法,即删除C结点后,只需要把C对应的行和列的数据变为0即可。然后在顶点的结构体当中,添加一个bool变量,用来表示C顶点的位置为空顶点。如下图,使用这种方法只需要修改一行和一列的元素,所以在O(|V|)时间内就可以完成。

数据结构(五)——图——图的基本操作之无向图DeleteVertex.png

如果使用邻接表存储,删除顶点C,还需要遍历其他顶点的边,看有没有和C相连的边。最好的情况是C后面本身就没有边结点,时间复杂度为O(1),最坏的情况是遍历完全部边结点,时间复杂度为O(|E|)。

下面看有向图:

数据结构(五)——图——图的基本操作之有向图DeleteVertex.png

对于有向图,他的删除操作与无向图一样,自己参阅上图。

3.6 若图G中没有某条边/弧,则添加该边/弧

数据结构(五)——图——图的基本操作之无向图的AddEdge.png

这里很简单,唯一要说明的是邻接表里添加该边/弧,如果采用尾插法,则要遍历到最后一个边结点,所以采用前插法,可以将时间复杂度缩短到O(1)。

有向图也类似,不过多叙述。

3.7 若图G中有某条边/弧,则删除该边/弧

数据结构(五)——图——图的基本操作之无向图的RemoveEdge.png

这个也很简单,看图就可以理解,有向图和无向图类似,也不过多叙述。

3.8 求图G中顶点x的第一个邻接点

数据结构(五)——图——图的基本操作之无向图的FirstNeighbor.png

对于无向图,如果用邻接矩阵存储,想求顶点x的第一个邻接点,只需要遍历x对应的行,找到第一个1即可,最好的时间复杂度为O(1),即第一个就为1,最坏的时间复杂度为O(|V|),即最后一个为1。

如果用邻接表存储,想求顶点x的第一个邻接点,只需要往后找第一个边结点即可,时间复杂度为O(1)。

数据结构(五)——图——图的基本操作之有向图的FirstNeighbor.png

对于有向图,如果用邻接矩阵存储,想求顶点x的第一个邻接点,根据找出边还是入边,只需要遍历x对应的行或列,找到第一个1即可,最好的时间复杂度为O(1),即第一个就为1,最坏的时间复杂度为O(|V|),即最后一个为1。

如果用邻接表存储,想求顶点x的第一个邻接点,如果找的是出边邻接点,只需要往后找第一个边结点即可,时间复杂度为O(1)。但如果找的是入边的邻接点,最好的情况是遍历的第一个边结点就是入边邻接点,时间复杂度为O(1);最坏的情况是最后一个才遍历到,复杂度为O(|E|)。

3.9 求图G中x的第二个邻接点

数据结构(五)——图——图的基本操作之无向图的NextNeighbor.png

对于无向图,如果用邻接矩阵存储,想求顶点x的第二个邻接点,只需要从x对应的行的第一个邻接点向后遍历,找到第二个数值为1的邻接点即可,最好的时间复杂度为O(1),即第一个就为1,最坏的时间复杂度为O(|V|),即最后一个为1。

如果用邻接表存储,想求顶点x的第二个邻接点,只需要从x对应的第一个边结点向后找一个即可,时间复杂度为O(1)。

有向图的做法也类似,但是需要注意的是如果是有向图要看找的是出边邻接点还是入边邻接点,然后在3.8有向图找第一个邻接点的基础上,向后再找一个即可,这里就不详细说明了。

3.10 设置/获取权值

数据结构(五)——图——图的基本操作之设置获取权值.png

设置和获取权值的操作和判断图G中边/弧是否存在的操作一致力,因为设置和获取权值的核心就在于找到边,所以设置和获取权值的开销和找边的开销一样,这里不再叙述。

4. 图的遍历

4.1 广度优先遍历

广度优先搜索遍历图的过程是以v为起始点,由近至远依次访问和v有路径相通且路径长度为1,2,……的顶点。

数据结构(五)——图——树和图的广度优先搜索.png

在树的部分,我们也学过树的广度优先搜索,如上图,将树与图做比较,不论是树还是图在进行广度优先搜索时,都要实现通过某一个结点,找到与之相邻的其它结点,因为只有实现这个操作,才可以一层一层的往下找到所有结点。

另外,由于树结构不存在回路,所以搜索相邻结点时,只需要向下一直搜索即可。而图结构存在回路,所以搜索相邻结点时,还需要判断当前搜所到的结点是否已经被搜索过了,判断是否已经被搜索的方式很简单,只需要给已经被搜索的点做上标记即可。

在实现树的广度优先遍历时,需要一个辅助队列帮助,所以对于图的广度优先遍历,也可以设置一个类似的辅助队列。

下面是图的广度优先遍历的实现:

数据结构(五)——图——图的广度优先搜索.png

要实现图的广度优先遍历,关键在于三点:一是找到与顶点相邻的所有顶点;二是标记哪些顶点被访问过;三是需要一个辅助队列来存储接下来要遍历的点。对于第一点,可以使用在图的基本操作部分的FirstNeighbor和NextNeighbor函数。对于第二点,可以定义一个bool型标记数组,存储各个顶点的标记信息,用false表示未被标记,用true表示标记。对于第三点,只需要定义一个辅助队列即可。

下面看一下代码实现:

数据结构(五)——图——图的广度优先遍历代码实现.png

上图左边是以2为出发点实现广度优先搜索的例子,右边是实现广度优先搜索的程序,可以结合理解。

注意:考试时可能会遇到给一个图G,然后让以某个顶点为出发点,然后写广度优先搜索序列的题目,如上图左边的例子。

另外,从上面的遍历序列的例子里,不难发现,我们在找6的邻接点时,可以选3和7,不过上面是按照递增的顺序来选的,然而也可以先选7,至于遍历序列究竟该如何选择,这与图的存储方式有关,如下图:

数据结构(五)——图——遍历序列的可变性.png

如果图是以邻接矩阵的方式存储,因为一个图的邻接矩阵表示方式唯一,因此广度优先遍历序列唯一,且是按照前面所说的递增顺序选取。

但是如果图是以邻接表的方式存储,因为一个图的邻接表的表示方式不唯一,因此广度优先遍历序列也不唯一,如上图右。

接下来,接着看广度优先的代码实现,会发现,当图是一个非连通图时,就会无法遍历完所有结点,如下图:

数据结构(五)——图——图的广度优先遍历优化.png

这里对BFS进行了优化,在广度优先遍历的代码之上,添加了一个二次查看标记数组的标记号,如果调用BFS以后,标记数组仍存在标记位false的值,就会以标记为false的结点为顶点再次使用广度优先搜索算法,直到标记数组里没有未被访问的点为止。

这里总结出一个结论,**对于无向图,调用BFS函数的次数=连通分量数。**

接下来对图的广度优先搜索算法进行复杂度分析:

数据结构(五)——图——图的广度优先遍历复杂度分析.png

如果使用邻接矩阵存储,所需要时间复杂度为O(|V|2),这个很简单就不多说。

如果使用邻接表存储,所需要时间复杂度为O(|V|+|E|),这是因为访问|V|个顶点需要O(|V|)时间复杂度,而邻接表存储无向图会存储两次(前面有说过为什么存储两次),查找各个顶点的邻接点需要2|E|的时间,但大O表示法,可以不计系数,所以时间复杂度为O(|V|+|E|)。

这里会有疑问,在分析上面BFS算法的时间复杂度时,为什么没有像以前一样分析最深层循环的次数?举个例子,如果一个图没有边并且使用邻接表存储,显然循环次数就为0次,然而事实上对每一个结点的访问都要调用一次BFS,因此访问所有结点也需要O(|V|)的时间,所以只考虑最深层的循环是会出问题的,所以分析时间复杂度和算法实现的方式有关。总之,遇到分析BFS和DFS的时间复杂度时,不要深入代码,只需要记住算法的时间开销来自于访问顶点和找各条边即可,所以可以拆开分析访问点的时间与找边的时间,然后结合具体存储结构即可。

接下来看一下广度优先生成树的概念:

数据结构(五)——图——广度优先生成树.png

在广度遍历的过程中,可以得到一课遍历树,称为广度优先生成树。

注意,如果图是以邻接矩阵的方式存储,因为一个图的邻接矩阵表示方式唯一,广度优先遍历序列唯一,因此广度优先生成树唯一。

但是如果图是以邻接表的方式存储,因为一个图的邻接表的表示方式不唯一,广度优先遍历序列也不唯一,因此广度优先生成树不唯一。

接下来再看一个比较相近的概念,广度优先生成森林:

数据结构(五)——图——广度优先生成森林.png

如图,对于一个非连通图,其上面的连通分量可以生成一个广度优先生成树,下面的连通分量也可以生成一个广度优先生成树,两个树合在一起就成了一个广度优先生成森林。

数据结构(五)——图——有向图的BFS.png

不难发现,上面的例子都是无向图,但是对于有向图,广度优先算法依然成立,但这里要明确一点,由于有向图的边带了方向性,所以对于同一图,以不同的顶点为出发点,调用BFS的次数不同,如上图,从1出发与从7出发的BFS调用次数就不相同。

下面对本节进行一个汇总:

数据结构(五)——图——BFS小结.png

4.2 深度优先遍历

数据结构(五)——图——图的DFS.png

图的深度优先遍历和树的先序遍历很类似,两者都使用了递归的思想(可以结合学习),与广度优先搜索不同,这种搜索算法所遵循的策略是尽可能深地搜索一个图。如上图的例子,使用深度优先搜索算法得到的序列是21563478,注意考试时也可能让写深度优先搜索的遍历序列。

同广度优先搜素一样,上面的算法也存在相同问题,如果面对的是非连通图,则无法遍历完所有结点,所以也需要添加一个二次检查标记数组的函数,全部代码实现如下图:

数据结构(五)——图——图的DFS改进.png

接下来分析一下DFS的复杂度:

数据结构(五)——图——图的DFS空间复杂度.png

空间复杂度最坏情况,是如上图上面的形式的图,这时候深度优先搜索需要递归深度为O(|V|)。空间复杂度最好情况,是如上图下面的形式的图,这时候深度优先搜索需要递归深度为O(1)。

数据结构(五)——图——图的DFS时间复杂度.png

时间复杂度分析如上,分析的具体过程上图已说,大体上与BFS相同,有疑问可以去看一下BFS的解释,再回来理解。

下面看一下深度优先遍历序列:

数据结构(五)——图——深度优先遍历序列.png

同广度优先搜索一样,根据图的表示方式不同,其深度优先序列的表示也不一定唯一,具体问题还需具体分析。

接下来看一下深度优先生成树的概念:

数据结构(五)——图——深度优先生成树.png

与广度优先搜索一样,深度优先搜索也会产生一棵深度优先生成树,同样,根据图的表示方式不确定,深度优先生成树的唯一性也不确定。

另外,连通图调用DFS才能产生深度优先生成树,否则产生的将是深度优先生成森林。

接下来,总结一下图的遍历与图的连通性的关系,如下图:

数据结构(五)——图——无向图的遍历与连通性.png

上面是无向图的遍历与连通性的关系,下面看一下有向图的遍历与连通性的关系。

数据结构(五)——图——有向图的遍历与连通性.png

最后,对本部分做个小结:

数据结构(五)——图——DFS小结.png

5. 图的应用

5.1 最小生成树

5.1.1 最小生成树的概念

数据结构(五)——图——生成树的概念.png

首先回顾一下生成树的概念,如上图。图的生成树不唯一,对于一个带权连通图的生成树,若各边权值之和最小,则称为该带权连通图的最小生成树。如下图:

数据结构(五)——图——最小生成树的概念.png

注意,只有连通图才有生成树,非连通图只有生成森林。

最小生成树的性质如下:

数据结构(五)——图——最小生成树的性质.png

若求一个图的最小生成树可以有两种算法,分别是Prim算法和Kruskal算法。在考研初试阶段考察代码的可能性不高,所以着重理解这两种算法的手动模拟过程。

5.1.2 Prim算法

数据结构(五)——图——Prim算法.png

上图给出了Prim算法的核心思想,如果以P城为出发点,则可以得到下面两个最小生成树。所以,Prim算法得到的最小生成树表现形式不唯一,但它一定是权值和最小的。

数据结构(五)——图——Prim算法示例.png

下面看一下Prim算法的机器实现思想:

数据结构(五)——图——Prim算法实现初始步骤.png

用两个数组来辅助实现Prim算法,其中一个数组用来标记各节点是否已加入树,另一个数组用来记录各节点加入树的最低代价。上面是初始状态,以V0为出发点,则V0已加入数组。同时更新各节点加入树的最低代价,V4和V5由于不与V0相连,所以它两无法加入树,代价标位无穷。

数据结构(五)——图——Prim算法实现第一轮.png

根据最低代价数组,可以发现V3加入代价最小,所以先让V3加入树,同时更新所有可以通过V0或V3加入树的结点的最小代价。接下来,继续选择加入代价最小的点加入树,如下图:

数据结构(五)——图——Prim算法实现第二轮.png

往后的步骤都一样,最后一组结果如下:

数据结构(五)——图——Prim算法实现最后一轮.png

接下来分析复杂度:

数据结构(五)——图——Prim算法实现复杂度.png

每一轮循环都要选择一个新订点放入构建的树中,总共有n个顶点,就需要循环n-1轮,而每一轮循环当中,又需要经历两次遍历(遍历两个数组),所以每一轮复杂度为O(2n),可以舍弃常数项,总共n-1轮,则总时间复杂度为O(n2)。

5.1.3 Kruskal算法

数据结构(五)——图——克鲁斯卡尔算法.png

上图给出了Kruskal算法的核心思想,如果以P城为出发点,则可以得到下图最小生成树。

数据结构(五)——图——克鲁斯卡尔算法示例.png

下面看一下Kruskal算法的机器实现思想:

数据结构(五)——图——Kruskal算法实现初始步骤.png

Kruskal算法在初始时,将图各边按照权值排序,如上图右,然后从第一行开始,检查该边上两个点是否已经连通,连通则跳过,不连通则选中。下面是第一轮实现:

数据结构(五)——图——Kruskal算法实现第一轮.png

下面是第二轮实现:

数据结构(五)——图——Kruskal算法实现第二轮.png

按照这种方式,到第五轮时出现已连通,则跳过,如下图:

数据结构(五)——图——Kruskal算法实现第五轮.png

接下来,按照这种方式遍历到最后,最后实现的结果与Prim算法一致,这里不过多阐述了。

最后看一下Kruskal的复杂度:

数据结构(五)——图——Kruskal算法实现复杂度.png

Kruskal算法要遍历边,所以要循环e轮,而在每一轮过程中,需要使用并查集来判断两个顶点是否属于同一集合,这个判断所需时间开销为O(log2e),所以总体时间开销为O(elog2e)。

5.1.4 Prim和Kruskal比较

上面两个算法我写的比较简洁,想了解具体过程的,可以点击跳转链接,听视频讲解:最小生成树

下面看一下两种算法的时间复杂度:

数据结构(五)——图——Prim算法和Kruskal算法比较.png

Prim算法每次选择顶点,时间复杂度只与顶点有关,为O(|V|2)。Kruskal算法每次选择边,时间复杂度只与边有关,为O(|E|log2|E|)。所以Prim算法适合用于稠密图,Kruskal算法适合用于稀疏图。

5.2 最短路径问题

数据结构(五)——图——最短路径问题.png

带权有向图的最短路径可以分为两类,一类是单源最短路径,即求图中某一顶点到其他各顶点的最短路径;另一类是各顶点间的最短路径。

求单源最短路径可以使用BFS算法和Dijkstra算法,BFS算法适用无权图,Dijkstra适用带权图和无权图。

求各顶点间的最短路径可以使用Floyd算法,Floyd算法适用于带权图和无权图。

注意,这里说带权有向图的最短路径可以分为两类,但后面方法中又说该方法适合无权图,这里的无权图并非真正意义上的无权图,而是当成各边权值为1的带权图理解(也可以理解为各边权值相等的带权图,此时权值意义不大)。

5.2.1 BFS求无权图的单源最短路径

数据结构(五)——图——BFS最短路径问题实现.png

上面是BFS求无权图的单源最短路径的代码实现,这里在原BFS的基础上多定义了数组d表示路径长度和数组path表示路径从哪个顶点过来。这里使用这两个数组的核心在于,由于BFS类似树的层序遍历,所以得到的数组d存储的路径长度就是最短路径。而path数组记录一每个点的前驱,是为了方便找到具体的路径。

比如上面的例子,从顶点2出发,求顶点2与所有顶点的最短路径长度。首先要令d[2]=0,表示2到自己的路径为0,由于刚开始,所有顶点还未与顶点2连接,所以所有顶点的d初始为无穷,path初始为-1。第一轮BFS,从2出发,找到1,6,则d[1]=d[6]=1,表示1,6到2的最短路径为1,这两个点的前驱都为2,即path[1]=path[6]=2。然后以1,6为顶点使用BFS,找到5,3,7,由于是第二轮,则5,3,7距离顶点2的长度为2,但path分别指的是1,6。按照这样的方式最后得到从2出发到达所有结点的最短路径长度,结果如上图。

这里有一点易错,那就是数组d[ ]存的是当前结点距离出发点的最短路径,而path[ ]数组存储的则是指向当前结点的上一个结点是谁。

各个顶点可以通过查找自己的前驱,最终找到一条到出发点2的路径,比如以结点4为例,它到2的路径为4->3->6->2,由于2的前驱是-1,所以可以知道2就是出发点。

数据结构(五)——图——BFS最短路径问题小结.png

之前也说过,通过BFS可以得到广度优先生成树,不难发现,对于这个生成树,每个结点到底在第几层,也直接反应了从起点2到达这些结点的距离到底是多少。既然BFS得到的是最短路径,其实也就是说以2为根结点,通过BFS得到的生成树的高度一定是最小的。

5.2.2 Dijkstra算法

BFS只适用无权图,若想求带权图的某个顶点到其它顶点的最短路径,就需要使用Dijkstra算法

以一个例子来看Dijkstra算法如何运行:

数据结构(五)——图——Dijkstra算法初始.png

假设现在要找到V0到其它各个顶点的最短路径,如上图,要初始化如图的三个数组,第一个数组final表示有没有找到V0到达各个顶点的最短路径,由于V0可以直达自己,所以V0的标记是true。第二个数组dist表示目前为止能找到的最短路径长度,V0到自己的长度为0,V0能直达的是V1和V4,由于别的点都未加入,所以目前来看,V0到V1和V4的最短路径应该是10和5,而V2和V3并不存在从V0直接过来的边,所以该两个点设置的值为无穷,表示暂时没有找到通往该顶点的路。第三个数组path和BFS的path是一个原理,这里就不再介绍,目前V1和V4能确定一个比较好的路径是由V0到达,所以V1和V4的path都设置为0,而V0,V2,V4没有直接前驱就设置为-1。

进行了一系列初始化以后,要进行第一轮处理:从初始化的dist数组中,选择dist值最小的,即V4加入路径中。然后更新未加入路径的顶点的dist值和path值,比如V1原来的路径长度为10,但是V4连通以后,可以通过V6->V4->v1的路径到达,此时路径长度只有8,所以更新dist[1]=8,path[1]=4。更新完所有的顶点以后,得到下图的第一轮结果。

数据结构(五)——图——Dijkstra算法第一轮处理.png

按照上述步骤,第二轮处理结果如下:

数据结构(五)——图——Dijkstra算法第二轮处理.png

第三轮处理如下:

数据结构(五)——图——Dijkstra算法第三轮处理.png

最后一轮处理如下:

数据结构(五)——图——Dijkstra算法最后一轮处理.png

得到了最后的数组以后,下面看一下如何处理使用数组信息:

数据结构(五)——图——Dijkstra信息处理.png

以V0到V2为例,通过查dist数组,可以知道V0到V2的最短路径长度为9,通过查询path数组可以知道V0到V2的路径为:V0->V4->V1->V2。

接下来分析一下Dijkstra算法的时间复杂度:

数据结构(五)——图——Dijkstra时间复杂度.png

在每一轮循环中,首先要遍历所有结点,找到还没确定最短路径,且dist最小的顶点Vi,这一步的时间复杂度为O(|V|)。找到Vi以后,还要遍历与他相关的所有结点,去修改dist数组和path数组。这一步的时间复杂度也为O(|V|)。也就是说每一轮的处理应是O(2|V|),但可以舍弃常数项,保留下来就是O(|V|)。一共要经历n-1轮处理,总的时间复杂度O(|V|2)。

Dijkstra算法和Prim算法很类似,只不过Dijkstra算法的dist数组记录的是从当前顶点到某一个指定顶点的最短路径值,而Prim算法的lowCost数组里记录的是某一个顶点加入到生成树里的最小代价。可以对比着学习。

最后说一下Dijkstra算法失效的例子,如下图:

数据结构(五)——图——Dijkstra失效的例子.png

当带权图边上带有负权值时,Dijkstra算法并不使用。比如上图,以V0为起点到V2,最短路径应是V0->V1->V2,路径长度为5,但是使用Dijkstra算法得到的最短路径是V0->V2,长度为7。

5.2.3 Floyd算法

写在开头:我这部分写的比较简陋,主要用来辅助复习的,有问题可以听王道的讲解:Floyd算法

数据结构(五)——图——Floyd算法.png

Floyd算法思想如上,接下来以一个例子看一下Floyd算法的过程:

初始化:在初始化时,定义邻接矩阵A来存储带权图,邻接矩阵上存储两个结点间的最短路径长度,path数组存储前驱结点。在初始时,不允许有任何顶点中转,此时可达的两点间的最短路径就是两点间的边的权值。path数组的值全为-1。

这里注意一点,邻接矩阵存储的横行代表弧的射出,竖行代表弧的射入。

数据结构(五)——图——Floyd算法初始.png

初始化以后,现在允许V0为中转,检查每两个顶点间的路径是否可以通过V0中转,可以的话路径长度为多少,与原来相比是大是小,如果小则更新最短路径,如果大则保持原来路径。允许V0为中转的两个数组的更新如下:

数据结构(五)——图——Floyd算法第一轮.png

接下来,允许V0,V1为中转,检查每两个顶点间的路径是否可以通过V0,V1中转,可以的话路径长度为多少,与原来相比是大是小,如果小则更新最短路径,如果大则保持原来路径。允许V0,V1为中转的两个数组的更新如下:

数据结构(五)——图——Floyd算法第二轮.png

接下来,允许V0,V1,V2为中转,检查每两个顶点间的路径是否可以通过V0,V1,V2中转,可以的话路径长度为多少,与原来相比是大是小,如果小则更新最短路径,如果大则保持原来路径。允许V0,V1,V2为中转的两个数组的更新如下:

数据结构(五)——图——Floyd算法第三轮.png

经过上面三轮迭代,我们已经把所有结点都考虑进去,此时得到的数组就是最终的数组,A数组里存储了图中任意两点间的最短路径长度,path数组存储了在最短路径中每个点的前驱。对于最终数组的具体分析与使用可以参考下图:

数据结构(五)——图——Floyd算法数组分析.png

这里补充一点,在Floyd算法里,有n个顶点,在初始化以后,就要经历n轮更新迭代。

Floyd算法的代码实现如下:

数据结构(五)——图——Floyd算法实现.png

根据上图,很清晰的可以看到时间复杂度为O(|V|3),空间复杂度为O(|V|2)。

最后看一下啊Floyd算法无法处理的情况:

首先再看一下负权图,上面我们说Dijkstra算法无法用于负权图,所以可以尝试用Floyd算法模拟负权图,最后会发现Floyd算法是可以用于负权图的

数据结构(五)——图——Floyd算法实现负权图.png

但是Floyd算法也有无法实现的情况,比如下面负权回路图,因为这种图有可能没有最短路径,所以Floyd算法也无法求出最短路径。

数据结构(五)——图——Floyd算法无法实现的情况.png

下面对三个求最短路径问题的方法进行小结:

数据结构(五)——图——最短路径问题总结.png

5.3 有向无环图描述表达式

先看一下什么是有向无环图,如下图:

数据结构(五)——图——有向无环图.png

知道了什么是有无环图,接下来就是本部分重点,用有向无环图来描述表达式。

image-20240516151314840

之前的学习说过,算术表达式可以用树的形式来表示,如上图,但仔细观察会发现树中存在重复的部分,比如上图的红色部分和绿色部分,这时候可以采用有向无环图,实现对相同子式的共享,从而节省存储空间。所以可以将其合并成如下图的形式:

数据结构(五)——图——树的算术表达式合并.png

注意,这个树依然有许多相同的部分,所以我们可以将其全部合并,最后合并的结果如下图:

数据结构(五)——图——树的算术表达式最终合并.png

最后合并出来的结果就是该表达式的有向无环图表示。

这部分的题很简单,多数都是考察有向无环图描述表达式需要的顶点个数,或绘制有向无环图。但是由于要合并的点可能有很多,导致做题时可能出现遗漏,所以下面提供一种做题方法:

数据结构(五)——图——有向无环图的算数表达式.png

按照图中步骤,先构造出如图的表示形式,然后执行第四步,自底向上逐层检查同层的运算符是否可以合并,若可以就合并,最后得到就是有向无环图的描述表达式,如下图:

数据结构(五)——图——有向无环图的算数表达式合并.png

5.4 拓扑排序

先看一下什么是AOV网:

数据结构(五)——图——AOV网.png

所谓AOV网,就是用有向无环图表示一个过程,顶点表示活动,用有向边<Vi,Vj>表示活动Vi必须先于活动Vj进行的这样一种关系,则将这种有向图称为顶点表示活动的网络,称为AOV网。

了解AOV网以后,接下来看一下拓扑排序的概念。

数据结构(五)——图——拓扑排序.png

简单的理解,拓扑排序就是AOV网里找到做事的先后顺序。

如上图的番茄炒蛋AOV网,拓扑排序的顺序就可以为:买菜、准备厨具、洗番茄、切番茄、打鸡蛋、下锅炒、吃。当然也可以排序为准备厨具、买菜、洗番茄、切番茄、打鸡蛋、下锅炒、吃。除了这两种,还有其它的排序方式,所以每个AOV网的拓扑排序序列不唯一。

下面看一下拓扑排序的实现步骤:

数据结构(五)——图——拓扑排序实现步骤.png

需要注意,并不是所有的图都可以进行拓扑排序,比如存在回路的图就无法进行拓扑排序,如下图:

数据结构(五)——图——拓扑排序不适应的情况.png

接下来看一下拓扑排序的代码实现,拓扑排序的代码实现就是将前面所说的拓扑排序的实现步骤用代码的形式表示出来:

数据结构(五)——图——拓扑排序的代码实现.png

上图是拓扑排序的代码实现,右边的才是拓扑排序的代码,左边的是存储结构的描述与定义,注意这里使用邻接表来存储图。

下面重点看拓扑排序的代码部分:

数据结构(五)——图——拓扑排序的代码实现过程.png

拓扑排序的代码,先声明(图中代码没有声明)了两个数组indegree[ ]和print[ ]分别用来记录当前顶点的入度和拓扑排序序列。此外,还定义了一个栈用来存储入度为0的点。

下面看一下代码实现的过程,首先,由于未开始排序,所以print数组全部初始化为-1。代码里第一个for循环会检查所有入度为0的点,并将入度为0的点放入栈中保存,上例中会把0和2依次压入栈中。接下来用count记录当前已输出的顶点数,由于栈里先弹出2号顶点,所以count指向位置存出2,表示拓扑序列里第一个值为2。接下来的for循环把所有与2相连的结点入度减1,此时与2相连的点没有入度变成0的,所以不需要再次入栈。到此为止完成第一轮循环。

接下来,由于栈里还有顶点0,所以栈非空,要进行第二轮while循环。同顶点2的操作一样,但是到最后,将0出栈,实现与0相连的结点入度减1时,出现1结点入度为0,所以要把1入度。到此完成第二轮循环。

第三轮,由于栈里有顶点1,还要接着进入while循环,按照这种方式继续迭代,当出现栈空时,则跳出循环。

跳出循环的情况有两种,一是出现回路,一是拓扑排序成功,判断是回路还是排序成功的方式是通过比较已被排序的顶点个数和顶点总个数,若相等,则排序成功,若不等,则存在回路。

接下来分析时间复杂度:

数据结构(五)——图——拓扑排序的代码复杂度.png

由于代码执行过程中,每个顶点都需要处理一次,每个边也都需要处理一次,所以时间复杂度为O(|V|+|E|)。但是要采用邻接矩阵存储,遍历每条边则要访问整个邻接矩阵,时间复杂度为O(|V|2)。

接下来看逆拓扑排序,与拓扑排序很像,只不过逆拓扑排序是选择出度为0的顶点输出。

数据结构(五)——图——逆拓扑排序.png

上图的逆拓扑排序序列就可以为:吃、下锅炒、切番茄、洗番茄、打鸡蛋、准备厨具、买菜。

下面看一下逆拓扑排序的实现:

数据结构(五)——图——逆拓扑排序实现.png

上图给出的是拓扑排序的实现代码,要想改成逆拓扑排序首先需要将拓扑排序里每次将入度为0的点删去改成每次将出度为0的点删去,然后要根据所使用的存储结构来进行程序设计。

这里要考虑一下存储结构对逆拓扑排序时间复杂度的影响,当实现逆拓扑排序时,由于要找每个点的入度,此时使用邻接表法就不太合适,所以采用邻接矩阵法可以稍微好一点。除了这两种,这里再补充一个逆邻接表法,即每个顶点后面跟的是指向自己的点,如果采用逆邻接表存储,实现逆拓扑排序就会更加方便。

在考试时,还喜欢出用DFS实现拓扑排序和逆拓扑排序,下面是DFS实现按逆拓扑排序的方法:

数据结构(五)——图——DFS实现逆拓扑排序.png

用DFS实现逆拓扑排序的核心就是将被访问完所有邻接点的顶点输出。比如说上面的例子,用栈来存储被访问的顶点,每一个被访问的顶点就做上标记,并压入栈中。当访问到没有邻接点的时候,就意味着访问到最后一个顶点,此时就要进行出栈操作,在每一个顶点出栈前,将顶点输出,就构成了逆拓扑排序序列。另外,DFS可能会出现同级点没有被访问的情况,如上图,在进行完一次DFS后,还要检查是否所有点都被访问,若存在未被访问的,要二次调用DFS。上图经过上述步骤,最后输出逆拓扑排序序列43102。

补充:DFS实现拓扑排序

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
// 假设图使用邻接表表示  
#define MAX_VERTICES 100 // 最大顶点数

typedef struct Node {
int vertex;
struct Node* next;
} Node;

typedef struct Graph {
int numVertices;
Node** adjLists; // 邻接表
int* visited; // 标记顶点是否被访问过
int* finishTime; // 顶点的完成时间(逆后序遍历顺序)
} Graph;

// 创建一个新节点
Node* createNode(int vertex) {
Node* newNode = (Node*)malloc(sizeof(Node));
newNode->vertex = vertex;
newNode->next = NULL;
return newNode;
}

// 添加边到图的邻接表
void addEdge(Graph* graph, int src, int dest) {
Node* newNode = createNode(dest);
newNode->next = graph->adjLists[src];
graph->adjLists[src] = newNode;
}

// DFS遍历并计算完成时间
void DFS(Graph* graph, int vertex, int* stack) {
graph->visited[vertex] = 1;
Node* temp = graph->adjLists[vertex];
while (temp) {
if (!graph->visited[temp->vertex]) {
DFS(graph, temp->vertex, stack);
}
temp = temp->next;
}
// 将当前顶点压入栈中,以获取逆后序遍历(完成时间)
stack[graph->numVertices - 1 - graph->finishTime[vertex]] = vertex;
}

// 拓扑排序函数
void topologicalSort(Graph* graph) {
graph->visited = (int*)calloc(graph->numVertices, sizeof(int));
graph->finishTime = (int*)calloc(graph->numVertices, sizeof(int));
int* stack = (int*)malloc(graph->numVertices * sizeof(int));

// 初始化完成时间数组
for (int i = 0; i < graph->numVertices; i++) {
graph->finishTime[i] = graph->numVertices;
}

// DFS遍历每个未访问过的节点
for (int i = 0; i < graph->numVertices; i++) {
if (!graph->visited[i]) {
DFS(graph, i, stack);
}
}

// 栈中存储的是逆后序遍历,出栈则为拓扑排序
printf("拓扑排序结果: ");
for (int i = 0; i < graph->numVertices; i++) {
printf("%d ", stack[i]);
}
printf("\n");

free(graph->visited);
free(graph->finishTime);
free(stack);
}

下面思考一个问题,对于上面的DFS实现逆拓扑排序,如果存在回路,则无法进行逆拓扑排序,这里怎么判断有回路存在?

我的想法是可以使用“递归”和“访问标记”的方法。当一个节点在递归过程中被第二次访问(即它不是当前递归路径的父节点),那么图中就存在回路。(这是我的想法,答案应该不唯一,能实现就行。)

最后,对拓扑排序内容进行小结:

数据结构(五)——图——拓扑排序总结.png

5.5 关键路径

首先,看一下什么是AOE网:

数据结构(五)——图——AOE网.png

与AOV网不同,AOE网用顶点表示事件,用有向边表示活动,以边上的权值表示完成该活动的开销

AOE网具有两条性质:

  1. 只有某顶点所代表的事件发生后,从该顶点出发的各有向边所代表的活动才能开始。
  2. 只有在进入某顶点的各有向边所代表的活动都已结束时,该顶点所代表的事件才能发生。但是要注意,如果一个顶点后面有多个事件,则这些事件是可以并行的。

接下来,看一下源点和汇点的概念:

数据结构(五)——图——AOE的开始与结束顶点.png

AOE网中只有一个入度为0的顶点,称为开始顶点也叫源点。也仅有一个出度为0的顶点,称为结束顶点,也叫汇点。

到这里,就可以引出关键路径与关键活动的概念:

数据结构(五)——图——关键路径与关键活动.png

从源点到汇点的所有有向路径里,具有最大路径长度的路径称为关键路径,而把关键路径上的活动称为关键活动。到这里就可以知道,完成某个工程的最短时间就是关键路径长度,若有关键活动不能按时完成,则整个工程的完成时间就会推迟。

为了求关键路径与关键活动,需要先引入几个概念:

(1) 事件的最早发生时间与活动的最早开始时间。

数据结构(五)——图——事件最早发生与活动最早开始.png

(2) 事件的最吃发生时间与活动的晚早开始时间。

数据结构(五)——图——事件最迟发生与活动最晚开始.png

(3) 时间余量。

数据结构(五)——图——时间余量.png

将活动的最早开始时间与最迟开始时间放到一起,可以发现,当一个活动的最早开始时间与最迟开始时间相等时,活动就不可以拖延,若最早开始时间小于最迟开始时间,则两者的差值,就是活动可以拖延的时间。如上图的打鸡蛋步骤,就可以推出2分钟开始。

我们将活动最迟开始时间与活动最早开始时间的差值,叫做活动的时间余量。时间余量表示在不推迟工程完成时间的情况下,某个活动可以拖延的时间。

了解了这些概念,就可以将关键路径的计算步骤总结如下:
数据结构(五)——图——关键路径计算.png

求关键路径的步骤可以总结为,先求出事件的最早和最迟发生时间,进而可以求得活动的最早和最迟发生时间,最后计算活动余量。活动余量为0的就是关键活动,所有关键活动就构成了关键路径。

下面分别看一下这些步骤的实现,这部分呢比较简单,我直接贴个图,有重点会说一下:

(1) 求所有事件的最早发生时间。

数据结构(五)——图——求所有事件的最早发生时间.png

(2) 求所有事件的最晚发生时间。

数据结构(五)——图——求所有事件的最晚发生时间.png

(3) 求所有活动的最早发生时间。

数据结构(五)——图——求所有活动的最早发生时间.png

(4) 求所有活动的最晚发生时间。

数据结构(五)——图——求所有活动的最晚发生时间.png

(5) 求时间余量。

数据结构(五)——图——求时间余量.png

求出了时间余量,就可以将所有时间余量为0的活动组合起来,就构成了关键路径,如图。

接下来,说一下关键活动与关键路径的特性:

数据结构(五)——图——关键活动和关键路径的特性.png

关键活动决定着整个工程工期,如果关键活动耗时增加,则整个工程的工期将增长,所以可以缩短关键活动的时间,进而缩短整个工程的工期。但是当关键活动缩短到一定程度时,可能会出现其他活动的耗时超过这个关键活动,此时关键活动就变成了非关键活动,再缩短时间也不会影响工期。

另外,由于AOV网可能存在多条路径,所以可能出现下面的情况,即存在两天时间相等的最长路径,则这两条路径都是关键路径,此时缩短其中一条活动的时间,并不一定能缩短整体工期,只有加快那些包括在所有关键路径上的关键活动才能缩短工期。如下图,缩短打鸡蛋并不能缩短活动的工期,但缩短所有关节路径都包含的炒菜就可以缩短工期。

数据结构(五)——图——关键活动和关键路径的特性2.png

最后,对关键路径进行小结:

数据结构(五)——图——关键路径小结.png