91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么使用Python實現最速下降法求極值的方法

發布時間:2021-04-07 09:52:06 來源:億速云 閱讀:629 作者:小新 欄目:開發技術

這篇文章給大家分享的是有關怎么使用Python實現最速下降法求極值的方法的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

對于一個多元函數怎么使用Python實現最速下降法求極值的方法,用最速下降法(又稱梯度下降法)求其極小值的迭代格式為

怎么使用Python實現最速下降法求極值的方法

其中怎么使用Python實現最速下降法求極值的方法為負梯度方向,即最速下降方向,αkαk為搜索步長。

一般情況下,最優步長αkαk的確定要用到線性搜索技術,比如精確線性搜索,但是更常用的是不精確線性搜索,主要是Goldstein不精確線性搜索和Wolfe法線性搜索。

為了調用的方便,編寫一個Python文件,里面存放線性搜索的子函數,命名為linesearch.py,這里先只編寫了Goldstein線性搜索的函數,關于Goldstein原則,可以參看最優化課本。

線性搜索的代碼如下(使用版本為Python3.3):

'''
線性搜索子函數
'''

import numpy as np
import random

def goldsteinsearch(f,df,d,x,alpham,rho,t):

  flag=0

  a=0
  b=alpham
  fk=f(x)
  gk=df(x)

  phi0=fk
  dphi0=np.dot(gk,d)

  alpha=b*random.uniform(0,1)

  while(flag==0):
    newfk=f(x+alpha*d)
    phi=newfk
    if(phi-phi0<=rho*alpha*dphi0):
      if(phi-phi0>=(1-rho)*alpha*dphi0):
        flag=1
      else:
        a=alpha
        b=b
        if(b<alpham):
          alpha=(a+b)/2
        else:
          alpha=t*alpha
    else:
      a=a
      b=alpha
      alpha=(a+b)/2
  return alpha

上述函數的輸入參數主要包括一個多元函數f,其導數df,當前迭代點x和當前搜索方向d,返回值是根據Goldstein準則確定的搜索步長。

我們仍以Rosenbrock函數為例,即有

怎么使用Python實現最速下降法求極值的方法

于是可得函數的梯度為

怎么使用Python實現最速下降法求極值的方法

最速下降法的代碼如下:

"""
最速下降法
Rosenbrock函數
函數 f(x)=100*(x(2)-x(1).^2).^2+(1-x(1)).^2
梯度 g(x)=(-400*(x(2)-x(1)^2)*x(1)-2*(1-x(1)),200*(x(2)-x(1)^2))^(T)
"""

import numpy as np
import matplotlib.pyplot as plt
import random
import linesearch
from linesearch import goldsteinsearch

def rosenbrock(x):
  return 100*(x[1]-x[0]**2)**2+(1-x[0])**2

def jacobian(x):
  return np.array([-400*x[0]*(x[1]-x[0]**2)-2*(1-x[0]),200*(x[1]-x[0]**2)])


X1=np.arange(-1.5,1.5+0.05,0.05)
X2=np.arange(-3.5,2+0.05,0.05)
[x1,x2]=np.meshgrid(X1,X2)
f=100*(x2-x1**2)**2+(1-x1)**2; # 給定的函數
plt.contour(x1,x2,f,20) # 畫出函數的20條輪廓線

def steepest(x0):

  print('初始點為:')
  print(x0,'\n')  
  imax = 20000
  W=np.zeros((2,imax))
  W[:,0] = x0
  i = 1   
  x = x0
  grad = jacobian(x)
  delta = sum(grad**2) # 初始誤差


  while i<imax and delta>10**(-5):
    p = -jacobian(x)
    x0=x
    alpha = goldsteinsearch(rosenbrock,jacobian,p,x,1,0.1,2)
    x = x + alpha*p
    W[:,i] = x
    grad = jacobian(x)
    delta = sum(grad**2)
    i=i+1

  print("迭代次數為:",i)
  print("近似最優解為:")
  print(x,'\n')  
  W=W[:,0:i] # 記錄迭代點
  return W

x0 = np.array([-1.2,1])
W=steepest(x0)

plt.plot(W[0,:],W[1,:],'g*',W[0,:],W[1,:]) # 畫出迭代點收斂的軌跡
plt.show()

為了實現不同文件中函數的調用,我們先用import函數導入了線性搜索的子函數,也就是下面的2行代碼

import linesearch
from linesearch import goldsteinsearch

當然,如果把定義goldsteinsearch函數的代碼直接放到程序里面,就不需要這么麻煩了,但是那樣的話,不僅會使程序顯得很長,而且不便于goldsteinsearch函數的重用。

此外,Python對函數式編程也支持的很好,在定義goldsteinsearch函數時,可以允許抽象的函數f,df作為其輸入參數,只要在調用時實例化就可以了。與Matlab不同的是,傳遞函數作為參數時,Python是不需要使用@將其變為函數句柄的。

運行結果為

初始點為:

[-1.2 1. ] 

迭代次數為: 1504

近似最優解為:

[ 1.00318532 1.00639618]

迭代點的軌跡為

怎么使用Python實現最速下降法求極值的方法

由于在線性搜索子程序中使用了隨機函數,初始搜索點是隨機產生的,因此每次運行的結果不太相同,比如再運行一次程序,得到

初始點為:
[-1.2 1. ] 

迭代次數為: 1994

近似最優解為:
[ 0.99735222 0.99469882]

所得圖像為

怎么使用Python實現最速下降法求極值的方法

感謝各位的閱讀!關于“怎么使用Python實現最速下降法求極值的方法”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

康保县| 榆中县| 襄垣县| 舞钢市| 甘谷县| 伊川县| 湟源县| 黄石市| 基隆市| 安陆市| 同仁县| 桃园县| 泰宁县| 盐源县| 台中市| 乌拉特中旗| 台中县| 漠河县| 齐齐哈尔市| 青川县| 定边县| 丹东市| 固安县| 曲阜市| 祁阳县| 龙南县| 临汾市| 同心县| 安化县| 新密市| 定州市| 凤山县| 武城县| 隆子县| 尚志市| 吉木萨尔县| 仁布县| 怀安县| 刚察县| 石狮市| 会理县|