溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么使用Python實現(xiàn)PSO算法解決TSP問題

發(fā)布時間:2023-05-08 11:11:10 來源:億速云 閱讀:127 作者:zzz 欄目:編程語言

本文小編為大家詳細介紹“怎么使用Python實現(xiàn)PSO算法解決TSP問題”,內(nèi)容詳細,步驟清晰,細節(jié)處理妥當,希望這篇“怎么使用Python實現(xiàn)PSO算法解決TSP問題”文章能幫助大家解決疑惑,下面跟著小編的思路慢慢深入,一起來學習新知識吧。

PSO算法

那么開始之前,我們還是來聊聊基本的PSO算法。核心就一個:

怎么使用Python實現(xiàn)PSO算法解決TSP問題

怎么使用Python實現(xiàn)PSO算法解決TSP問題

來我們來解釋一下這個公式,你就懂了。

老規(guī)矩我們假設有一個方程 y=sin(x1)+cos(x2)

PSO算法通過模擬鳥類遷移來實現(xiàn)咱們的優(yōu)化,這個怎么來的,就不說了,就說說這個核心。

我們剛剛的方程當中,有兩個變量,x1,x2。由于是模擬鳥兒,所有為了實現(xiàn)瞎蒙大法,這里引入了速度的概念,x自然就是咱們的可行域,也就是解的空間。通過改變速度,來讓x進行移動,也就是改變x的值。其中Pbest,表示這個鳥自己走過的位置里面最優(yōu)的解,Gbest表示整個種群的最優(yōu)解。什么意思,也就是說隨著移動,這個鳥可能會走到更差的位置,因為和遺傳不一樣,他是不好的就干掉了,而這個不會。當然這里面涉及到很多局部問題,咱們這里都不討論,沒有哪一個算法是完美的,這個就對了。

算法流程

算法的主要流程:

第一步:對粒子群的隨機位置和速度進行初始設定,同時設定迭代次數(shù)。

第二步:計算每個粒子的適應度值。

第三步:對每個粒子,將其適應度值與所經(jīng)歷的最好位置pbest i的適應度值進行比較,若較好,則將其作為當前的個體最優(yōu)位置。

第四步:對每個粒子,將其適應度值與全局所經(jīng)歷的最好位置gbestg的適應度值進行比較,若較好,則將其作為當前的全局最優(yōu)位置。

第五步:根據(jù)速度、位置公式對粒子的速度和位置進行優(yōu)化,從而更新粒子位置。

第六步:如未達到結束條件(通常為最大循環(huán)數(shù)或最小誤差要求),則返回第二步

怎么使用Python實現(xiàn)PSO算法解決TSP問題

優(yōu)點:

PSO算法沒有交叉和變異運算,依靠粒子速度完成搜索,并且在迭代進化中只有最優(yōu)的粒子把信息傳遞給其它粒子,搜索速度快。

PSO算法具有記憶性,粒子群體的歷史最好位置可以記憶并傳遞給其它粒子。

需調整的參數(shù)較少,結構簡單,易于工程實現(xiàn)。

采用實數(shù)編碼,直接由問題的解決定,問題解的變量數(shù)直接作為粒子的維數(shù)。

缺點:

缺乏速度的動態(tài)調節(jié),容易陷入局部最優(yōu),導致收斂精度低和不易收斂。

不能有效解決離散及組合優(yōu)化問題。

參數(shù)控制,對于不同的問題,如何選擇合適的參數(shù)來達到最優(yōu)效果。

不能有效求解一些非直角坐標系描述問題,

簡單實現(xiàn)

ok,我們來看一下最簡單的實現(xiàn):

import numpy as np
import random
class PSO_model:
    def __init__(self,w,c1,c2,r1,r2,N,D,M):
        self.w = w # 慣性權值
        self.c1=c1
        self.c2=c2
        self.r1=r1
        self.r2=r2
        self.N=N # 初始化種群數(shù)量個數(shù)
        self.D=D # 搜索空間維度
        self.M=M # 迭代的最大次數(shù)
        self.x=np.zeros((self.N,self.D))  #粒子的初始位置
        self.v=np.zeros((self.N,self.D))  #粒子的初始速度
        self.pbest=np.zeros((self.N,self.D))  #個體最優(yōu)值初始化
        self.gbest=np.zeros((1,self.D))  #種群最優(yōu)值
        self.p_fit=np.zeros(self.N)
        self.fit=1e8 #初始化全局最優(yōu)適應度
# 目標函數(shù),也是適應度函數(shù)(求最小化問題)
    def function(self,x):
        A = 10
        x1=x[0]
        x2=x[1]
        Z = 2 * A + x1 ** 2 - A * np.cos(2 * np.pi * x1) + x2 ** 2 - A * np.cos(2 * np.pi * x2)
        return Z
     # 初始化種群
    def init_pop(self):
        for i in range(self.N):
            for j in range(self.D):
                self.x[i][j] = random.random()
                self.v[i][j] = random.random()
            self.pbest[i] = self.x[i] # 初始化個體的最優(yōu)值
            aim=self.function(self.x[i]) # 計算個體的適應度值
            self.p_fit[i]=aim # 初始化個體的最優(yōu)位置
            if aim < self.fit:  # 對個體適應度進行比較,計算出最優(yōu)的種群適應度
                self.fit = aim
                self.gbest = self.x[i]
    # 更新粒子的位置與速度
    def update(self):
        for t in range(self.M): # 在迭代次數(shù)M內(nèi)進行循環(huán)
            for i in range(self.N): # 對所有種群進行一次循環(huán)
                aim=self.function(self.x[i]) # 計算一次目標函數(shù)的適應度
                if aim<self.p_fit[i]: # 比較適應度大小,將小的負值給個體最優(yōu)
                    self.p_fit[i]=aim
                    self.pbest[i]=self.x[i]
                    if self.p_fit[i]<self.fit: # 如果是個體最優(yōu)再將和全體最優(yōu)進行對比
                        self.gbest=self.x[i]
                        self.fit = self.p_fit[i]
            for i in range(self.N): # 更新粒子的速度和位置
                self.v[i]=self.w*self.v[i]+self.c1*self.r1*(self.pbest[i]-self.x[i])+ self.c2*self.r2*(self.gbest-self.x[i])
                self.x[i]=self.x[i]+self.v[i]
        print("最優(yōu)值:",self.fit,"位置為:",self.gbest)
if __name__ == '__main__':
    # w,c1,c2,r1,r2,N,D,M參數(shù)初始化
    w=random.random()
    c1=c2=2#一般設置為2
    r1=0.7
    r2=0.5
    N=30
    D=2
    M=200
    pso_object=PSO_model(w,c1,c2,r1,r2,N,D,M)#設置初始權值
    pso_object.init_pop()
    pso_object.update()

解決TSP

數(shù)據(jù)表示

首先這個使用PSO的話,其實是和我們的這個先前使用遺傳是類似的,我們依然通過一個矩陣表示種群,一個矩陣表示城市之間的距離。

      # 群體的初始化和路徑的初始化
        self.population = np.array([0] * self.num_pop * self.num).reshape(
            self.num_pop, self.num)
        self.fitness = [0] * self.num_pop
        """
        計算城市的距離,我們用矩陣表示城市間的距離
        """
        self.__matrix_distance = self.__matrix_dis()
區(qū)別

和我們原來的PSO的最大區(qū)別是啥呢,其實和簡單,在與我們速度的更新。我們在連續(xù)問題的時候其實是這樣的:

怎么使用Python實現(xiàn)PSO算法解決TSP問題

同樣的我們可以把X表示城市的編號,但是顯然我們不能使用這種方案進行速度的更新。

那么這個時候,我們對于速度的更新的話,我們是需要使用到一種新的方案,那么這個方案的話其實就是套用遺傳算算法的X更新。我們之所以需要速度說白了就是為了更新X,讓X往好的方向進行瞎蒙?,F(xiàn)在單純使用速度更新是不行了,那么反正都是更新X,選擇一個可以很好更新這個X的方案不就行了嘛。所以的話這里可直接使用遺傳啊,我們的速度更新是參考Pbest和Gbest,之后按照一定的權重進行“學習”這樣一來這個V就具備了Pbest和Gbest的一種“特征”。所以既然如此,那么我直接仿造遺傳交叉的時候和Best進行交叉不就可以學習到一些對應的“特征”嘛。

    def cross_1(self, path, best_path):
        r1 = np.random.randint(self.num)
        r2 = np.random.randint(self.num)
        while r2 == r1:
            r2 = np.random.randint(self.num)
        left, right = min(r1, r2), max(r1, r2)
        cross = best_path[left:right + 1]
        for i in range(right - left + 1):
            for k in range(self.num):
                if path[k] == cross[i]:
                    path[k:self.num - 1] = path[k + 1:self.num]
                    path[-1] = 0
        path[self.num - right + left - 1:self.num] = cross
        return path

同時我們依然可以引入變異。

    def mutation(self,path):
        r1 = np.random.randint(self.num)
        r2 = np.random.randint(self.num)
        while r2 == r1:
            r2 = np.random.randint(self.num)
        path[r1],path[r2] = path[r2],path[r1]
        return path
完整代碼

ok,現(xiàn)在我們來看到完整的代碼:

import numpy as np
import matplotlib.pyplot as plt
class HybridPsoTSP(object):
    def __init__(self ,data ,num_pop=200):
        self.num_pop = num_pop  # 群體個數(shù)
        self.data = data        # 城市坐標
        self.num =len(data)     # 城市個數(shù)
        # 群體的初始化和路徑的初始化
        self.population = np.array([0] * self.num_pop * self.num).reshape(
            self.num_pop, self.num)
        self.fitness = [0] * self.num_pop
        """
        計算城市的距離,我們用矩陣表示城市間的距離
        """
        self.__matrix_distance = self.__matrix_dis()
    def __matrix_dis(self):
        """
        計算14個城市的距離,將這些距離用矩陣存起來
        :return:
        """
        res = np.zeros((self.num, self.num))
        for i in range(self.num):
            for j in range(i + 1, self.num):
                res[i, j] = np.linalg.norm(self.data[i, :] - self.data[j, :])
                res[j, i] = res[i, j]
        return res
    def cross_1(self, path, best_path):
        r1 = np.random.randint(self.num)
        r2 = np.random.randint(self.num)
        while r2 == r1:
            r2 = np.random.randint(self.num)
        left, right = min(r1, r2), max(r1, r2)
        cross = best_path[left:right + 1]
        for i in range(right - left + 1):
            for k in range(self.num):
                if path[k] == cross[i]:
                    path[k:self.num - 1] = path[k + 1:self.num]
                    path[-1] = 0
        path[self.num - right + left - 1:self.num] = cross
        return path
    def mutation(self,path):
        r1 = np.random.randint(self.num)
        r2 = np.random.randint(self.num)
        while r2 == r1:
            r2 = np.random.randint(self.num)
        path[r1],path[r2] = path[r2],path[r1]
        return path
    def comp_fit(self, one_path):
        """
        計算,咱們這個路徑的長度,例如A-B-C-D
        :param one_path:
        :return:
        """
        res = 0
        for i in range(self.num - 1):
            res += self.__matrix_distance[one_path[i], one_path[i + 1]]
        res += self.__matrix_distance[one_path[-1], one_path[0]]
        return res
    def out_path(self, one_path):
        """
        輸出我們的路徑順序
        :param one_path:
        :return:
        """
        res = str(one_path[0] + 1) + '-->'
        for i in range(1, self.num):
            res += str(one_path[i] + 1) + '-->'
        res += str(one_path[0] + 1) + '\n'
        print(res)
    def init_population(self):
        """
        初始化種群
        :return:
        """
        rand_ch = np.array(range(self.num))
        for i in range(self.num_pop):
            np.random.shuffle(rand_ch)
            self.population[i, :] = rand_ch
            self.fitness[i] = self.comp_fit(rand_ch)
def main(data, max_n=200, num_pop=200):
    Path_short = HybridPsoTSP(data, num_pop=num_pop)  # 混合粒子群算法類
    Path_short.init_population()  # 初始化種群
    # 初始化路徑繪圖
    fig, ax = plt.subplots()
    x = data[:, 0]
    y = data[:, 1]
    ax.scatter(x, y, linewidths=0.1)
    for i, txt in enumerate(range(1, len(data) + 1)):
        ax.annotate(txt, (x[i], y[i]))
    res0 = Path_short.population[0]
    x0 = x[res0]
    y0 = y[res0]
    for i in range(len(data) - 1):
        plt.quiver(x0[i], y0[i], x0[i + 1] - x0[i], y0[i + 1] - y0[i], color='r', width=0.005, angles='xy', scale=1,
                   scale_units='xy')
    plt.quiver(x0[-1], y0[-1], x0[0] - x0[-1], y0[0] - y0[-1], color='r', width=0.005, angles='xy', scale=1,
               scale_units='xy')
    plt.show()
    print('初始染色體的路程: ' + str(Path_short.fitness[0]))
    # 存儲個體極值的路徑和距離
    best_P_population = Path_short.population.copy()
    best_P_fit = Path_short.fitness.copy()
    min_index = np.argmin(Path_short.fitness)
    # 存儲當前種群極值的路徑和距離
    best_G_population = Path_short.population[min_index, :]
    best_G_fit = Path_short.fitness[min_index]
    # 存儲每一步迭代后的最優(yōu)路徑和距離
    best_population = [best_G_population]
    best_fit = [best_G_fit]
    # 復制當前群體進行交叉變異
    x_new = Path_short.population.copy()
    for i in range(max_n):
        # 更新當前的個體極值
        for j in range(num_pop):
            if Path_short.fitness[j] < best_P_fit[j]:
                best_P_fit[j] = Path_short.fitness[j]
                best_P_population[j, :] = Path_short.population[j, :]
        # 更新當前種群的群體極值
        min_index = np.argmin(Path_short.fitness)
        best_G_population = Path_short.population[min_index, :]
        best_G_fit = Path_short.fitness[min_index]
        # 更新每一步迭代后的全局最優(yōu)路徑和解
        if best_G_fit < best_fit[-1]:
            best_fit.append(best_G_fit)
            best_population.append(best_G_population)
        else:
            best_fit.append(best_fit[-1])
            best_population.append(best_population[-1])
        # 將每個個體與個體極值和當前的群體極值進行交叉
        for j in range(num_pop):
            # 與個體極值交叉
            x_new[j, :] = Path_short.cross_1(x_new[j, :], best_P_population[j, :])
            fit = Path_short.comp_fit(x_new[j, :])
            # 判斷是否保留
            if fit < Path_short.fitness[j]:
                Path_short.population[j, :] = x_new[j, :]
                Path_short.fitness[j] = fit
            # 與當前極值交叉
            x_new[j, :] = Path_short.cross_1(x_new[j, :], best_G_population)
            fit = Path_short.comp_fit(x_new[j, :])
            if fit < Path_short.fitness[j]:
                Path_short.population[j, :] = x_new[j, :]
                Path_short.fitness[j] = fit
            # 變異
            x_new[j, :] = Path_short.mutation(x_new[j, :])
            fit = Path_short.comp_fit(x_new[j, :])
            if fit <= Path_short.fitness[j]:
                Path_short.population[j] = x_new[j, :]
                Path_short.fitness[j] = fit
        if (i + 1) % 20 == 0:
            print('第' + str(i + 1) + '步后的最短的路程: ' + str(Path_short.fitness[min_index]))
            print('第' + str(i + 1) + '步后的最優(yōu)路徑:')
            Path_short.out_path(Path_short.population[min_index, :])  # 顯示每一步的最優(yōu)路徑
    Path_short.best_population = best_population
    Path_short.best_fit = best_fit
    return Path_short  # 返回結果類
if __name__ == '__main__':
    data = np.array([16.47, 96.10, 16.47, 94.44, 20.09, 92.54,
                     22.39, 93.37, 25.23, 97.24, 22.00, 96.05, 20.47, 97.02,
                     17.20, 96.29, 16.30, 97.38, 14.05, 98.12, 16.53, 97.38,
                     21.52, 95.59, 19.41, 97.13, 20.09, 92.55]).reshape((14, 2))
    main(data)

初始染色體的路程: 71.30211569672313
第20步后的最短的路程: 29.340520066994223
第20步后的最優(yōu)路徑:
9-->10-->1-->2-->14-->3-->4-->5-->6-->12-->7-->13-->8-->11-->9
第40步后的最短的路程: 29.340520066994223
第40步后的最優(yōu)路徑:
9-->10-->1-->2-->14-->3-->4-->5-->6-->12-->7-->13-->8-->11-->9
第60步后的最短的路程: 29.340520066994223
第60步后的最優(yōu)路徑:
9-->10-->1-->2-->14-->3-->4-->5-->6-->12-->7-->13-->8-->11-->9
第80步后的最短的路程: 29.340520066994223
第80步后的最優(yōu)路徑:
9-->10-->1-->2-->14-->3-->4-->5-->6-->12-->7-->13-->8-->11-->9
第100步后的最短的路程: 29.340520066994223
第100步后的最優(yōu)路徑:
9-->10-->1-->2-->14-->3-->4-->5-->6-->12-->7-->13-->8-->11-->9
第120步后的最短的路程: 29.340520066994223
第120步后的最優(yōu)路徑:
9-->10-->1-->2-->14-->3-->4-->5-->6-->12-->7-->13-->8-->11-->9
第140步后的最短的路程: 29.340520066994223
第140步后的最優(yōu)路徑:
9-->10-->1-->2-->14-->3-->4-->5-->6-->12-->7-->13-->8-->11-->9
第160步后的最短的路程: 29.340520066994223
第160步后的最優(yōu)路徑:
9-->10-->1-->2-->14-->3-->4-->5-->6-->12-->7-->13-->8-->11-->9
第180步后的最短的路程: 29.340520066994223
第180步后的最優(yōu)路徑:
9-->10-->1-->2-->14-->3-->4-->5-->6-->12-->7-->13-->8-->11-->9
第200步后的最短的路程: 29.340520066994223
第200步后的最優(yōu)路徑:
9-->10-->1-->2-->14-->3-->4-->5-->6-->12-->7-->13-->8-->11-->9

可以看到收斂速度還是很快的。

特點分析

ok,到目前為止的話,我們介紹了兩個算法去解決TSP或者是優(yōu)化問題。我們來分析一下,這些算法有什么特點,為啥可以達到我們需要的優(yōu)化效果。其實不管是遺傳還是PSO,你其實都可以發(fā)現(xiàn),有一個東西,我們可以暫且叫它環(huán)境壓力。我們通過物競天擇,或者鳥類遷移,進行模擬尋優(yōu)。而之所以需要這樣做,是因為我們指定了一個規(guī)則,在我們的規(guī)則之下。我們讓模擬的種群有一種壓力去靠攏,其中物競天擇和鳥類遷移只是我們的一種手段,去應對這樣的“壓力”。所以的對于這種算法而言,最核心的點就兩個:

設計環(huán)境壓力

我們需要做優(yōu)化問題,所以我們必須要能夠讓我們的解往那個方向走,需要一個驅動,需要一個壓力。因此我們需要設計這樣的一個環(huán)境,在遺傳算法,粒子群算法是通過種群當中的生存,來進行設計的它的壓力是我們的目標函數(shù)。由種群和目標函數(shù)(目標指標)構成了一個環(huán)境和壓力。

設計壓力策略

之后的話,我們設計好了一個環(huán)境和壓力,那么未來應對這種壓力,我們需要去設計一種策略,來應付這種壓力。遺傳算法是通過PUA自己,也就是種群的優(yōu)勝略汰。PSO是通過學習,學習種群的優(yōu)秀粒子和過去自己家的優(yōu)秀“祖先”來應對這種壓力的。

強化學習

所以的話,我們是否可以使用別的方案來實現(xiàn)這種優(yōu)化效果。,在強化學習的算法框架里面的話,我們明確的知道了為什么他們可以實現(xiàn)優(yōu)化,是環(huán)境壓力+壓力策略。恰好咱們強化學習是有環(huán)境的,適應函數(shù)和環(huán)境恰好可以組成環(huán)境+壓力。本身的算法收斂過程就是我們的壓力策略。所以我們完全是可以直接使用強化學習進行這個處理的。那么在這里咱們就來使用強化學習在下一篇文章當中。

讀到這里,這篇“怎么使用Python實現(xiàn)PSO算法解決TSP問題”文章已經(jīng)介紹完畢,想要掌握這篇文章的知識點還需要大家自己動手實踐使用過才能領會,如果想了解更多相關內(nèi)容的文章,歡迎關注億速云行業(yè)資訊頻道。

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內(nèi)容。

AI