当前位置: 首页 > article >正文

数学建模之数学模型—2:非线性规划

文章目录

  • 非线性规划
    • 基本概念与结论
    • 凸集与凸函数
    • 极值条件
      • 无约束条件的极值判断条件
      • 有约束条件的极值判断条件
    • 无约束非线性规划
      • 一维搜索
        • 算法步骤
        • 示例
        • 特点
        • 代码模板
      • 最速下降法
        • 算法详细步骤
      • 代码实现示例
        • 最优步长的求解
      • 黄金分割法
      • 斐波那契法
      • 牛顿法
      • 阻尼牛顿法
      • 模式搜索法
      • Powell方法
    • 有约束非线性规划
      • 外点罚函数法
      • 算法步骤
      • Python 代码实现
      • 注意事项
      • 内点罚函数法
      • 原理
        • 倒数障碍函数
        • 对数障碍函数
      • 算法步骤
      • Python 代码示例(使用对数障碍函数)
      • 代码说明
      • 注意事项

非线性规划

基本概念与结论

有约束非线性规划的一般数学模型为如下形式:
min ⁡ f ( x ) s . t . { g i ( x ) ⩾ 0 , i = 1 , 2 , . . . , m h j ( x ) = 0 , j = 1 , 2 , . . . , n \min f\left( x \right) \\ s.t.\left\{ \begin{array}{c} g_i\left( x \right) \geqslant 0,i=1,2,...,m\\ h_j\left( x \right) =0,j=1,2,...,n\\ \end{array} \right. minf(x)s.t.{gi(x)0,i=1,2,...,mhj(x)=0,j=1,2,...,n
下面给出非线性规划的基本概念
定义1:设 f ( x ) f(x) f(x)为目标函数, S S S为可行域, x ∗ ∈ S x^*\in S xS。若: ∀ x ∈ S , f ( x ) ⩾ f ( x ∗ ) \forall x\in S,f\left( x \right) \geqslant f\left( x^* \right) xS,f(x)f(x)则称 x ∗ x^{*} x
min ⁡ f ( x ) s . t . x ∈ S \min f\left( x \right) \\ s.t. x\in S minf(x)s.t.xS
极小化问题的最优解(全局最优解)。
定义2:设 f ( x ) f(x) f(x)为目标函数, S S S为可行域, x ∗ ∈ S x^*\in S xS。若: ∃ x ∗ ∈ { x ∣ ∥ x − x ∗ ∥ < ε , ε > 0 } , f ( x ) ⩾ f ( x ∗ ) \exist x^*\in \left\{ x\left| \left\| x-x^* \right\| \right. <\varepsilon ,\varepsilon >0 \right\} ,f\left( x \right) \geqslant f\left( x^* \right) x{xxx<ε,ε>0},f(x)f(x)则称 x ∗ x^{*} x为极小化问题:
min ⁡ f ( x ) s . t . x ∈ S \min f\left( x \right) \\ s.t. x\in S minf(x)s.t.xS
的局部最优解。

凸集与凸函数

定义:设 f : S ⊂ R n → R f:S\subset R^{n}\rightarrow R fSRnR, S S S凸集,如果对所有的 x ( 1 ) , x ( 2 ) ∈ S x^{(1)},x^{(2)}\in S x(1),x(2)S, λ ∈ ( 0 , 1 ) \lambda\in(0,1) λ(0,1),都有: f ( λ x ( 1 ) + ( 1 − λ ) x ( 2 ) ) ⩽ λ f ( x ( 1 ) ) + ( 1 − λ ) f ( x ( 2 ) ) f(\lambda x^{(1)}+(1-\lambda )x^{(2)})\leqslant \lambda f( x^{(1)})+(1-\lambda )f(x^{(2)}) f(λx(1)+(1λ)x(2))λf(x(1))+(1λ)f(x(2))
f ( x ) f(x) f(x) S S S上的凸函数。
Hessian矩阵 f f f存在二阶偏导数, x ∈ R n x\in R^{n} xRn: ∇ 2 f ( x ) = ( ∂ 2 f ( x ) ∂ x 1 2 ∂ 2 f ( x ) ∂ x 1 ∂ x 2 . . . ∂ 2 f ( x ) ∂ x 1 ∂ x n ∂ 2 f ( x ) ∂ x 2 ∂ x 1 ∂ 2 f ( x ) ∂ x 2 2 . . . ∂ 2 f ( x ) ∂ x 2 ∂ x n ⋮ ⋮ ⋱ ⋮ ∂ 2 f ( x ) ∂ x n ∂ x 1 ∂ 2 f ( x ) ∂ x n ∂ x 2 . . . ∂ 2 f ( x ) ∂ x n 2 ) \nabla ^2f\left( x \right) =\left( \begin{matrix} \frac{\partial ^2f\left( x \right)}{\partial x_{1}^{2}}& \frac{\partial ^2f\left( x \right)}{\partial x_1\partial x_2}& ...& \frac{\partial ^2f\left( x \right)}{\partial x_1\partial x_n}\\ \frac{\partial ^2f\left( x \right)}{\partial x_2\partial x_1}& \frac{\partial ^2f\left( x \right)}{\partial x_{2}^{2}}& ...& \frac{\partial ^2f\left( x \right)}{\partial x_2\partial x_n}\\ \vdots& \vdots& \ddots& \vdots\\ \frac{\partial ^2f\left( x \right)}{\partial x_n\partial x_1}& \frac{\partial ^2f\left( x \right)}{\partial x_n\partial x_2}& ...& \frac{\partial ^2f\left( x \right)}{\partial x_{n}^{2}}\\ \end{matrix} \right) 2f(x)= x122f(x)x2x12f(x)xnx12f(x)x1x22f(x)x222f(x)xnx22f(x).........x1xn2f(x)x2xn2f(x)xn22f(x)
下面给出一系列定理:

  • 定理1:有限凸函数的线性组合为凸函数
  • 定理2:凸函数在有限函数值处的沿任意方向导数都存在
  • 定理3:凸函数在定义区间上必连续
  • 定理4:设 S S S R n R^{n} Rn上的非空凸集, f ( x ) f(x) f(x)是定义在 S S S上的凸函数,则 f ( x ) f(x) f(x) S S S上的局限极小点是全局极小点,且极小点的集合为凸集
  • 凸函数的一阶、二阶判断定理:
    • ∃ x ( 1 ) ≠ x ( 2 ) ∈ S ≠ ⊘ , S 是一个凸集, f 可微 : f 为凸函数 ⇔ f ( x ( 2 ) ) ⩾ f ( x ( 1 ) ) + ∇ f ( x ( 1 ) ) T ( x ( 2 ) − x ( 1 ) ) \exists x^{\left( 1 \right)}\ne x^{\left( 2 \right)}\in S\ne \oslash ,S\text{是一个凸集,}f\text{可微}:f\text{为凸函数}\Leftrightarrow f\left( x^{\left( 2 \right)} \right) \geqslant f\left( x^{\left( 1 \right)} \right) +\nabla f\left( x^{\left( 1 \right)} \right) ^T\left( x^{\left( 2 \right)}-x^{\left( 1 \right)} \right) x(1)=x(2)S=,S是一个凸集,f可微:f为凸函数f(x(2))f(x(1))+f(x(1))T(x(2)x(1))
    • 在凸集定义内的点的Hessian矩阵半正定 ⇔ \Leftrightarrow 凸函数
    • 在凸集定义上所有的点在其处的Hessian矩阵正定 ⇒ \Rightarrow 严格凸函数
      凸规划
      min ⁡ f ( x ) s . t . { g i ( x ) ⩾ 0 , i = 1 , 2 , . . . , m h j ( x ) = 0 , j = 1 , 2 , . . . , n \min f\left( x \right) \\ s.t.\left\{ \begin{array}{c} g_i\left( x \right) \geqslant 0,i=1,2,...,m\\ h_j\left( x \right) =0,j=1,2,...,n\\ \end{array} \right. minf(x)s.t.{gi(x)0,i=1,2,...,mhj(x)=0,j=1,2,...,n
      f ( x ) f\left( x \right) f(x)为凸函数, g i ( x ) g_i\left( x \right) gi(x)为凹函数, h j ( x ) h_j\left( x \right) hj(x)为线性函数,称此类问题为凸规划

极值条件

无约束条件的极值判断条件

无约束非线性规划的一般数学模型为如下形式: min ⁡ f ( x ) x ∈ R n \min f\left( x \right) \\ x\in \mathbb{R} ^n minf(x)xRn
定理1 设函数 f ( x ) 在 x ‾ 处可微 , 若存在向量 d , 使得 ∇ f ( x ‾ ) T d < 0 , 则存在数 δ > 0 , 使得对 ∀ λ ∈ ( 0 , δ ) , 有 f ( x ‾ + λ d ) < f ( x ‾ ) \text{设函数}f\left( x \right) \text{在}\overline{x}\text{处可微},\text{若存在向量}d,\text{使得}\nabla f\left( \overline{x} \right) ^Td<0,\text{则存在数}\delta >0,\text{使得对}\forall \lambda \in \left( 0,\delta \right) ,\text{有}f\left( \overline{x}+\lambda d \right) <f\left( \overline{x} \right) 设函数f(x)x处可微,若存在向量d,使得f(x)Td<0,则存在数δ>0,使得对λ(0,δ),f(x+λd)<f(x)
定理2 设函数 f ( x ) 在点 x ‾ 处可微,若 x ‾ 是局部最小点 , 则 ∇ f ( x ‾ ) = 0 \text{设函数}f\left( x \right) \text{在点}\overline{x}\text{处可微,若}\overline{x}\text{是局部最小点},\text{则}\nabla f\left( \overline{x} \right) =0 设函数f(x)在点x处可微,若x是局部最小点,f(x)=0
定理3 设函数 f ( x ) 在点 x ‾ 处二次可微 , 若 x ‾ 是局部极小点,则 ∇ f ( x ‾ ) = 0 , 且 ∇ 2 f ( x ‾ ) 半正定 \text{设函数}f\left( x \right) \text{在点}\overline{x}\text{处二次可微},\text{若}\overline{x}\text{是局部极小点,则}\nabla f\left( \overline{x} \right) =0,\text{且}\nabla ^2f\left( \overline{x} \right) \text{半正定} 设函数f(x)在点x处二次可微,x是局部极小点,则f(x)=0,2f(x)半正定
定理4——局部极小点 设函数 f ( x ) 在点 x ‾ 处二次可微 , 若 ∇ f ( x ‾ ) = 0 , 且 ∇ 2 f ( x ‾ ) 正定,则 x ‾ 是局部极小点 \text{设函数}f\left( x \right) \text{在点}\overline{x}\text{处二次可微},\text{若}\nabla f\left( \overline{x} \right) =0,\text{且}\nabla ^2f\left( \overline{x} \right) \text{正定,则}\overline{x}\text{是局部极小点} 设函数f(x)在点x处二次可微,f(x)=0,2f(x)正定,则x是局部极小点

定理5——全局最小点 设函数 f ( x ) 在 R n 上的可微函数 , x ‾ ∈ R n , 则 x ‾ 是全局极小点 ⇔ ∇ f ( x ‾ ) = 0 \text{设函数}f\left( x \right) \text{在}R^n\text{上的可微函数},\overline{x}\in R^n,\text{则}\overline{x}\text{是全局极小点}\Leftrightarrow \nabla f\left( \overline{x} \right) =0 设函数f(x)Rn上的可微函数,xRn,x是全局极小点f(x)=0

有约束条件的极值判断条件

有约束非线性规划的一般数学模型为如下表现形式:
min ⁡ f ( x ) s . t . { g i ( x ) ⩾ 0 , i = 1 , 2 , . . . , m h j ( x ) = 0 , j = 1 , 2 , . . . , n \min f\left( x \right) \\ s.t.\left\{ \begin{array}{c} g_i\left( x \right) \geqslant 0,i=1,2,...,m\\ h_j\left( x \right) =0,j=1,2,...,n\\ \end{array} \right. minf(x)s.t.{gi(x)0,i=1,2,...,mhj(x)=0,j=1,2,...,n
其中 x ∈ R n x\in R^n xRn f ( x ) f(x) f(x) g i ( x ) g_i(x) gi(x) h j ( x ) h_j(x) hj(x)都是定义在 R n R^n Rn上的实值函数。
FRitz John条件——一般约束的一阶必要条件
x ‾ 为可行点 , I = { i ∣ g i ( x ‾ ) = 0 } , f 和 g i ( x ‾ ) ( i ∈ I ) 在点 x ‾ 处可微 , g i ( x ‾ ) ( i ∉ I ) 在点 x ‾ 处连续, h j ( x ) ( j = 1 , 2 , . . . , l ) 在点 x ‾ 处连续可微。如果 x ‾ 是局部最优解 , 则存在不全为 0 的数 u 0 , u i ( i ∈ I ) 和 v j ( j = 1 , 2 , . . . , l ) , 使得: u 0 ∇ f ( x ‾ ) + ∑ i ∈ I u i ∇ g i ( x ∗ ) − ∑ j = 1 l μ j ∇ h j ( x ∗ ) = 0 , u 0 , u i ⩾ 0 \overline{x}\text{为可行点},I=\left\{ i|g_i\left( \overline{x} \right) =0 \right\} ,f\text{和}g_i\left( \overline{x} \right) \left( i\in I \right) \text{在点}\overline{x}\text{处可微},g_i\left( \overline{x} \right) \left( i\notin I \right) \text{在点}\overline{x}\text{处连续,}h_j\left( x \right) \left( j=1,2,...,l \right) \text{在点}\overline{x}\text{处连续可微。如果}\overline{x}\text{是局部最优解},\text{则存在不全为}0\text{的数}u_0,u_i\left( i\in I \right) \text{和}v_j\left( j=1,2,...,l \right) ,\text{使得:} \\ u_0\nabla f(\overline{x})+\sum_{i\in I}^{}{u_i\nabla g_i(x^*)}-\sum_{j=1}^l{\mu _j\nabla h_j(x^*)}=0, u_0,u_i\geqslant 0 x为可行点,I={igi(x)=0},fgi(x)(iI)在点x处可微,gi(x)(i/I)在点x处连续,hj(x)(j=1,2,...,l)在点x处连续可微。如果x是局部最优解,则存在不全为0的数u0,ui(iI)vj(j=1,2,...,l),使得:u0f(x)+iIuigi(x)j=1lμjhj(x)=0,u0,ui0

无约束非线性规划

一维搜索

一维搜索又称直线搜索,是指单变量函数最优化,即求一维问题的最优解方法,这里介绍黄金分割法

  • 先在区间 [ a , b ] \left[ a,b \right] [a,b]上插入两个试探点: t l = a + ( 1 − β ) ( b − a ) , t r = a + β ( b − a ) t_l=a+\left( 1-\beta \right) \left( b-a \right) ,t_r=a+\beta \left( b-a \right) tl=a+(1β)(ba),tr=a+β(ba)
  • 由单峰函数性质丢掉 1 3 \frac{1}{3} 31区间,逐步搜索
    黄金分割法是一维搜索中用于求解单变量函数最优解的一种高效方法,以下是对它更详细的介绍:
算法步骤
  1. 初始化
    • 给定初始搜索区间 [ a , b ] [a,b] [a,b],以及精度要求 ϵ \epsilon ϵ
  2. 计算试探点
    • 计算两个试探点: t l = a + ( 1 − β ) ( b − a ) t_l=a+(1 - \beta)(b - a) tl=a+(1β)(ba) t r = a + β ( b − a ) t_r=a+\beta(b - a) tr=a+β(ba)
  3. 比较函数值
    • 计算 f ( t l ) f(t_l) f(tl) f ( t r ) f(t_r) f(tr),比较它们的大小。
    • f ( t l ) < f ( t r ) f(t_l)<f(t_r) f(tl)<f(tr),则新的搜索区间为 [ a , t r ] [a,t_r] [a,tr]
    • f ( t l ) ≥ f ( t r ) f(t_l)\geq f(t_r) f(tl)f(tr),则新的搜索区间为 [ t l , b ] [t_l,b] [tl,b]
  4. 判断终止条件
    • 检查新的搜索区间长度是否小于精度要求 ϵ \epsilon ϵ,即 ∣ b − a ∣ < ϵ |b - a|<\epsilon ba<ϵ
    • 若是,则取当前区间的中点或两个试探点中函数值较好的点作为近似最优解,算法结束。
    • 若否,则返回步骤2,继续迭代。
示例

假设要求函数 f ( x ) = − x 2 + 4 x − 3 f(x)=-x^2 + 4x - 3 f(x)=x2+4x3在区间 [ 0 , 4 ] [0,4] [0,4]上的最大值。

  1. 首先,初始化 a = 0 a = 0 a=0 b = 4 b = 4 b=4 β = 0.618 \beta = 0.618 β=0.618
  2. 计算试探点:
    • t l = 0 + ( 1 − 0.618 ) × ( 4 − 0 ) = 1.528 t_l=0+(1 - 0.618)\times(4 - 0)=1.528 tl=0+(10.618)×(40)=1.528
    • t r = 0 + 0.618 × ( 4 − 0 ) = 2.472 t_r=0+0.618\times(4 - 0)=2.472 tr=0+0.618×(40)=2.472
  3. 计算函数值:
    • f ( t l ) = f ( 1.528 ) = − 1.52 8 2 + 4 × 1.528 − 3 = 1.315 f(t_l)=f(1.528)=-1.528^2 + 4\times1.528 - 3=1.315 f(tl)=f(1.528)=1.5282+4×1.5283=1.315
    • f ( t r ) = f ( 2.472 ) = − 2.47 2 2 + 4 × 2.472 − 3 = 1.985 f(t_r)=f(2.472)=-2.472^2 + 4\times2.472 - 3=1.985 f(tr)=f(2.472)=2.4722+4×2.4723=1.985
  4. 因为 f ( t l ) < f ( t r ) f(t_l)<f(t_r) f(tl)<f(tr),所以新的搜索区间为 [ 0 , 2.472 ] [0,2.472] [0,2.472]
  5. 继续迭代,直到满足精度要求。
特点
  • 优点
    • 不需要计算函数的导数,适用于导数不存在或难以计算的函数。
    • 算法简单,易于实现。
    • 收敛速度较快,每次迭代都能将搜索区间缩小一定比例。
  • 缺点
    • 对于非单峰函数可能无法找到全局最优解。
    • 收敛速度相对较慢,与一些基于导数的方法相比,需要更多的迭代次数才能达到相同的精度。
代码模板
import math

# 定义黄金分割比
GOLDEN_RATIO = (math.sqrt(5) - 1) / 2

def golden_section_search(func, a, b, epsilon=1e-6):
    """
    黄金分割法进行一维搜索
    :param func: 目标函数
    :param a: 搜索区间左端点
    :param b: 搜索区间右端点
    :param epsilon: 精度要求
    :return: 近似最优解
    """
    # 计算初始试探点
    t_l = a + (1 - GOLDEN_RATIO) * (b - a)
    t_r = a + GOLDEN_RATIO * (b - a)
    # 计算初始试探点的函数值
    f_l = func(t_l)
    f_r = func(t_r)

    while (b - a) > epsilon:
        if f_l < f_r:
            # 新的搜索区间为 [a, t_r]
            b = t_r
            t_r = t_l
            f_r = f_l
            t_l = a + (1 - GOLDEN_RATIO) * (b - a)
            f_l = func(t_l)
        else:
            # 新的搜索区间为 [t_l, b]
            a = t_l
            t_l = t_r
            f_l = f_r
            t_r = a + GOLDEN_RATIO * (b - a)
            f_r = func(t_r)

    # 返回近似最优解
    return (a + b) / 2

# 示例目标函数
def example_function(x):
    return -x**2 + 4*x - 3

# 测试代码
if __name__ == "__main__":
    a = 0
    b = 4
    result = golden_section_search(example_function, a, b)
    print(f"近似最优解: {result}")
    print(f"最优解处的函数值: {example_function(result)}")

最速下降法

最速下降法属于迭代算法。求解无约束非线性规划的迭代算法一般具有如下形式

  • 选定初始点 x ( 0 ) , k = 0 x^{(0)},k=0 x(0),k=0
  • k = k + 1 k=k+1 k=k+1
  • 寻找一个合适的方向 P ( k ) P^{(k)} P(k)
  • 求出沿着这个方向的前进步长 λ ( k ) \lambda^{(k)} λ(k)
  • 得到新的点 x ( k + 1 ) = x ( k ) + λ ( k ) P ( k ) x^{(k+1)}=x^{(k)}+\lambda^{(k)}P^{(k)} x(k+1)=x(k)+λ(k)P(k)
    最速下降算法的基本思想是沿着负梯度方向搜索极值点,即搜索方向
    P ( k ) = − ∇ f ( x ( k ) ) P^{(k)}=-\nabla f(x^{(k)}) P(k)=f(x(k))
    搜索步长满足以下条件:
    f ( x ( k ) + λ ( k ) P ( k ) ) = m i n λ ⩾ 0 f ( x ( k ) − λ ∇ f ( x ( k ) ) ) f(x^{(k)}+\lambda ^{(k)}P^{(k)})=\underset{\lambda\geqslant 0 }{min}f(x^{(k)}-\lambda \nabla f(x^{(k)})) f(x(k)+λ(k)P(k))=λ0minf(x(k)λf(x(k)))
算法详细步骤
  1. 初始化
    选定初始点 x ( 0 ) x^{(0)} x(0),并令迭代计数器 k = 0 k = 0 k=0。初始点的选择通常会影响算法的收敛速度和最终结果,在实际应用中,可以根据问题的特点或经验来选择合适的初始点。
  2. 迭代过程
  • 步骤一:更新迭代计数器
    • k = k + 1 k=k + 1 k=k+1
  • 步骤二:确定搜索方向
    • 计算当前点 x ( k ) x^{(k)} x(k) 处目标函数 f ( x ) f(x) f(x) 的梯度 ∇ f ( x ( k ) ) \nabla f(x^{(k)}) f(x(k)),搜索方向 P ( k ) P^{(k)} P(k) 取为负梯度方向,即 P ( k ) = − ∇ f ( x ( k ) ) P^{(k)}=-\nabla f(x^{(k)}) P(k)=f(x(k))。梯度 ∇ f ( x ) \nabla f(x) f(x) 是一个向量,它的每个分量是目标函数关于各个变量的偏导数。
  • 步骤三:确定搜索步长
    • 搜索步长 λ ( k ) \lambda^{(k)} λ(k) 要满足 f ( x ( k ) + λ ( k ) P ( k ) ) = m i n λ ⩾ 0 f ( x ( k ) − λ ∇ f ( x ( k ) ) ) f(x^{(k)}+\lambda ^{(k)}P^{(k)})=\underset{\lambda\geqslant 0 }{min}f(x^{(k)}-\lambda \nabla f(x^{(k)})) f(x(k)+λ(k)P(k))=λ0minf(x(k)λf(x(k)))。这意味着要在负梯度方向上找到一个最优的步长,使得目标函数值下降最多。在实际计算中,精确求解这个一维搜索问题可能比较困难,因此常常采用一些近似的方法,如黄金分割法、斐波那契法等进行一维搜索来确定步长。
  • 步骤四:更新迭代点
    • 得到新的点 x ( k + 1 ) = x ( k ) + λ ( k ) P ( k ) x^{(k + 1)}=x^{(k)}+\lambda^{(k)}P^{(k)} x(k+1)=x(k)+λ(k)P(k)
  1. 终止条件
    可以根据不同的准则来判断迭代是否终止,常见的终止条件有:
  • 梯度的模小于某个给定的小正数 ϵ \epsilon ϵ,即 ∥ ∇ f ( x ( k ) ) ∥ < ϵ \left\|\nabla f(x^{(k)})\right\|<\epsilon f(x(k)) <ϵ。这表示目标函数在当前点的变化率已经很小,可能已经接近极值点。
  • 相邻两次迭代点的距离小于某个给定的小正数 ϵ \epsilon ϵ,即 ∥ x ( k + 1 ) − x ( k ) ∥ < ϵ \left\|x^{(k + 1)}-x^{(k)}\right\|<\epsilon x(k+1)x(k) <ϵ
  • 目标函数值的变化小于某个给定的小正数 ϵ \epsilon ϵ,即 ∣ f ( x ( k + 1 ) ) − f ( x ( k ) ) ∣ < ϵ \left|f(x^{(k + 1)})-f(x^{(k)})\right|<\epsilon f(x(k+1))f(x(k)) <ϵ

代码实现示例

import numpy as np
import math

# 定义黄金分割比
GOLDEN_RATIO = (math.sqrt(5) - 1) / 2

# 黄金分割法进行一维搜索
def golden_section_search(func, a=0, b=10, epsilon=1e-6):
    t_l = a + (1 - GOLDEN_RATIO) * (b - a)
    t_r = a + GOLDEN_RATIO * (b - a)
    f_l = func(t_l)
    f_r = func(t_r)

    while (b - a) > epsilon:
        if f_l < f_r:
            b = t_r
            t_r = t_l
            f_r = f_l
            t_l = a + (1 - GOLDEN_RATIO) * (b - a)
            f_l = func(t_l)
        else:
            a = t_l
            t_l = t_r
            f_l = f_r
            t_r = a + GOLDEN_RATIO * (b - a)
            f_r = func(t_r)

    return (a + b) / 2

# 最速下降法
def steepest_descent(f, grad_f, x0, epsilon=1e-6, max_iter=1000):
    """
    最速下降法求解无约束非线性规划问题
    :param f: 目标函数
    :param grad_f: 目标函数的梯度函数
    :param x0: 初始点
    :param epsilon: 收敛精度
    :param max_iter: 最大迭代次数
    :return: 最优解
    """
    x = np.array(x0, dtype=np.float64)
    k = 0
    while k < max_iter:
        # 计算当前点的梯度
        grad = grad_f(x)
        # 判断是否满足收敛条件
        if np.linalg.norm(grad) < epsilon:
            break
        # 确定搜索方向,为负梯度方向
        p = -grad

        # 定义一维搜索的目标函数
        def one_dim_func(lambda_):
            return f(x + lambda_ * p)

        # 使用黄金分割法确定步长
        lambda_ = golden_section_search(one_dim_func)

        # 更新迭代点
        x = x + lambda_ * p
        k += 1
    return x

# 示例目标函数
def example_f(x):
    """
    示例目标函数:f(x) = x1^2 + x2^2
    """
    return np.sum(np.square(x))

# 示例目标函数的梯度
def example_grad_f(x):
    """
    示例目标函数的梯度:grad f(x) = [2*x1, 2*x2]
    """
    return 2 * x

# 主程序
if __name__ == "__main__":
    # 初始点
    x0 = [1.0, 1.0]
    # 调用最速下降法求解
    result = steepest_descent(example_f, example_grad_f, x0)
    print("最优解:", result)
    print("最优值:", example_f(result))
最优步长的求解

以下是使用黄金分割法和斐波那契法求步长 λ ( k ) \lambda^{(k)} λ(k)的具体方法:

黄金分割法

  1. 原理
    • 黄金分割法是基于黄金分割比例来逐步缩小搜索区间,以逼近函数的最优解。对于一个单峰函数,在搜索区间 [ a , b ] [a,b] [a,b]内,通过在两个特定点 x 1 x_1 x1 x 2 x_2 x2处计算函数值,根据函数值的大小关系,不断舍弃不包含最优解的区间,从而使搜索区间不断缩小。
    • 这两个特定点 x 1 x_1 x1 x 2 x_2 x2与区间端点的距离满足黄金分割比例,即 x 1 − a b − a = b − x 2 b − a = 5 − 1 2 ≈ 0.618 \frac{x_1 - a}{b - a}=\frac{b - x_2}{b - a}=\frac{\sqrt{5}-1}{2}\approx0.618 bax1a=babx2=25 10.618
  2. 计算步骤
    • 首先确定初始搜索区间 [ a , b ] [a,b] [a,b],即确定步长 λ \lambda λ的取值范围,保证目标函数 f ( x ( k ) + λ P ( k ) ) f(x^{(k)}+\lambda P^{(k)}) f(x(k)+λP(k))在该区间内是单峰的。
    • 计算区间内的两个试探点 x 1 = a + 0.382 ( b − a ) x_1 = a + 0.382(b - a) x1=a+0.382(ba) x 2 = a + 0.618 ( b − a ) x_2 = a + 0.618(b - a) x2=a+0.618(ba),并计算对应的函数值 f 1 = f ( x ( k ) + x 1 P ( k ) ) f_1 = f(x^{(k)}+x_1 P^{(k)}) f1=f(x(k)+x1P(k)) f 2 = f ( x ( k ) + x 2 P ( k ) ) f_2 = f(x^{(k)}+x_2 P^{(k)}) f2=f(x(k)+x2P(k))
    • 比较 f 1 f_1 f1 f 2 f_2 f2的大小,如果 f 1 < f 2 f_1 < f_2 f1<f2,则新的搜索区间为 [ a , x 2 ] [a,x_2] [a,x2];否则,新的搜索区间为 [ x 1 , b ] [x_1,b] [x1,b]
    • 重复上述步骤,不断缩小搜索区间,直到满足预设的精度要求,此时的区间中点或其中一个端点即可作为近似的最优步长 λ ( k ) \lambda^{(k)} λ(k)

斐波那契法

  1. 原理
    • 斐波那契法也是一种用于一维搜索的区间收缩方法,它与黄金分割法类似,但在确定试探点的位置时,是根据斐波那契数列来确定的。斐波那契数列满足 F n = F n − 1 + F n − 2 F_n = F_{n - 1}+F_{n - 2} Fn=Fn1+Fn2,其中 F 0 = 0 F_0 = 0 F0=0 F 1 = 1 F_1 = 1 F1=1
    • 在搜索过程中,利用斐波那契数列的性质来确定试探点的位置,使得在给定的搜索次数下,能够最大程度地缩小搜索区间。
  2. 计算步骤
    • 同样先确定初始搜索区间 [ a , b ] [a,b] [a,b]和搜索次数 n n n
    • 根据斐波那契数列计算出第 n n n F n F_n Fn以及前一项 F n − 1 F_{n - 1} Fn1,第一个试探点为 x 1 = a + F n − 1 F n ( b − a ) x_1 = a+\frac{F_{n - 1}}{F_n}(b - a) x1=a+FnFn1(ba),第二个试探点为 x 2 = a + F n − 2 F n ( b − a ) x_2 = a+\frac{F_{n - 2}}{F_n}(b - a) x2=a+FnFn2(ba),计算对应的函数值 f 1 = f ( x ( k ) + x 1 P ( k ) ) f_1 = f(x^{(k)}+x_1 P^{(k)}) f1=f(x(k)+x1P(k)) f 2 = f ( x ( k ) + x 2 P ( k ) ) f_2 = f(x^{(k)}+x_2 P^{(k)}) f2=f(x(k)+x2P(k))
    • 比较 f 1 f_1 f1 f 2 f_2 f2的大小,根据大小关系舍弃相应的区间,更新搜索区间和试探点。
    • 随着搜索次数的增加,不断重复上述步骤,当达到预定的搜索次数 n n n时,得到的搜索区间的中点或其中一个端点就是近似的最优步长 λ ( k ) \lambda^{(k)} λ(k)

牛顿法

牛顿法基本思想以目标函数的一个二次函数作为其近似,然后求出这个二次函数的极小值点,从而该极小值点近似为原目标函数的一个局部极小值点。
f ( x ) f(x) f(x)是二次可微函数。假设上一步迭代到了 x ( k ) x^{(k)} x(k)。我们在点 x ( k ) x^{(k)} x(k) T a y l o r Taylor Taylor展开,取二阶近似:
f ( x ) ≈ Q ( x ) = f ( x ( k ) ) + ∇ f ( x ( k ) ) T ( x − x ( k ) ) + 1 2 ( x − x ( k ) ) T ∇ 2 f ( x ( k ) ) ( x − x ( k ) ) f\left( x \right) \approx Q\left( x \right) =f\left( x^{\left( k \right)} \right) +\nabla f\left( x^{\left( k \right)} \right) ^T\left( x-x^{\left( k \right)} \right) +\frac{1}{2}\left( x-x^{\left( k \right)} \right) ^T\nabla ^2f\left( x^{\left( k \right)} \right) \left( x-x^{\left( k \right)} \right) f(x)Q(x)=f(x(k))+f(x(k))T(xx(k))+21(xx(k))T2f(x(k))(xx(k))
g ( x ( k ) ) = Δ ∇ f ( x ( k ) ) , H ( x ( k ) ) = Δ ∇ 2 f ( x ( k ) ) g\left( x^{\left( k \right)} \right) \overset{\varDelta}{=}\nabla f\left( x^{\left( k \right)} \right) ,H\left( x^{\left( k \right)} \right) \overset{\varDelta}{=}\nabla ^2f\left( x^{\left( k \right)} \right) g(x(k))=Δf(x(k)),H(x(k))=Δ2f(x(k))
反解可得到:
x = x ( k ) − ∇ 2 f ( x ( k ) ) − 1 ∇ f ( x ( k ) ) x=x^{\left( k \right)}-\nabla ^2f\left( x^{\left( k \right)} \right) ^{-1}\nabla f\left( x^{\left( k \right)} \right) x=x(k)2f(x(k))1f(x(k))
基于上面给出的信息,我们得到牛顿算法:
(1)给定初始点 x ( 1 ) ∈ R n x^{\left( 1 \right)}\in R^n x(1)Rn,给定误差 ϵ > 0 \epsilon>0 ϵ>0,令 k = 1 k=1 k=1
(2)由 ∇ 2 f ( x ( k ) ) d ( k ) = − ∇ f ( x ( k ) ) \nabla ^2f\left( x^{\left( k \right)} \right) d^{\left( k \right)}=-\nabla f\left( x^{\left( k \right)} \right) 2f(x(k))d(k)=f(x(k)),解线性方程组得到搜索方向 d ( k ) d^{(k)} d(k)
(3)置 x ( k + 1 ) = x ( k ) + d ( k ) x^{\left( k+1 \right)}=x^{\left( k \right)}+d^{\left( k \right)} x(k+1)=x(k)+d(k),即 x ( k + 1 ) = x ( k ) − ∇ 2 f ( x ( k ) ) − 1 ∇ f ( x ( k ) ) x^{(k+1)}=x^{\left( k \right)}-\nabla ^2f\left( x^{\left( k \right)} \right) ^{-1}\nabla f\left( x^{\left( k \right)} \right) x(k+1)=x(k)2f(x(k))1f(x(k))
(4)当 ∥ d ( k ) ∥ < ϵ \left\| d^{\left( k \right)} \right\| <\epsilon d(k) <ϵ,迭代终止,否则, k = k + 1 k=k+1 k=k+1,跳转到 2 2 2

import numpy as np

def newton_method(f, grad_f, hess_f, x1, epsilon=1e-6, max_iter=100):
    """
    牛顿算法实现

    参数:
    f: 目标函数
    grad_f: 目标函数的梯度
    hess_f: 目标函数的海森矩阵
    x1: 初始点,numpy 数组
    epsilon: 误差阈值,默认为 1e-6
    max_iter: 最大迭代次数,默认为 100

    返回:
    x: 最优解
    iter_count: 迭代次数
    """
    x = x1.copy()
    k = 0
    while k < max_iter:
        # 步骤 2: 求解线性方程组得到搜索方向
        grad = grad_f(x)
        hess = hess_f(x)
        try:
            # 解线性方程组 H * d = -grad
            d = np.linalg.solve(hess, -grad)
        except np.linalg.LinAlgError:
            print("海森矩阵不可逆,无法求解线性方程组。")
            break

        # 步骤 3: 更新 x
        x_new = x + d

        # 步骤 4: 判断是否满足终止条件
        if np.linalg.norm(d) < epsilon:
            break

        x = x_new
        k += 1

    return x, k

# 示例:定义一个简单的目标函数及其梯度和海森矩阵
def f(x):
    # 目标函数 f(x) = x1^2 + x2^2
    return x[0]**2 + x[1]**2

def grad_f(x):
    # 目标函数的梯度
    return np.array([2 * x[0], 2 * x[1]])

def hess_f(x):
    # 目标函数的海森矩阵
    return np.array([[2, 0], [0, 2]])

# 初始点
x1 = np.array([1.0, 1.0])

# 调用牛顿算法
optimal_x, iter_count = newton_method(f, grad_f, hess_f, x1)

print("最优解:", optimal_x)
print("迭代次数:", iter_count)

阻尼牛顿法

阻尼牛顿法与原始牛顿法的主要区别在于增加了沿着牛顿方向进行一维搜索,其迭代公式:
x ( k + 1 ) = x ( k ) + λ ( k ) d ( k ) x^{\left( k+1 \right)}=x^{\left( k \right)}+\lambda ^{\left( k \right)}d^{\left( k \right)} x(k+1)=x(k)+λ(k)d(k)

  • (1)给定初始点 x ( 1 ) ∈ R n x^{\left( 1 \right)}\in R^n x(1)Rn,给定误差 ϵ > 0 \epsilon>0 ϵ>0,令 k = 1 k=1 k=1

  • (2)由 ∇ 2 f ( x ( k ) ) d ( k ) = − ∇ f ( x ( k ) ) \nabla ^2f\left( x^{\left( k \right)} \right) d^{\left( k \right)}=-\nabla f\left( x^{\left( k \right)} \right) 2f(x(k))d(k)=f(x(k)),解线性方程组得到搜索方向 d ( k ) d^{(k)} d(k)

  • (3) 从 x ( k ) x^{(k)} x(k)出发,沿着 d ( k ) d^{(k)} d(k)方向一维搜索: min ⁡ λ    f ( x ( k ) + λ d ( k ) ) \underset{\lambda}{\min}\,\,f\left( x^{\left( k \right)}+\lambda d^{\left( k \right)} \right) λminf(x(k)+λd(k))

  • (4)置 x ( k + 1 ) = x ( k ) + d ( k ) x^{\left( k+1 \right)}=x^{\left( k \right)}+d^{\left( k \right)} x(k+1)=x(k)+d(k),即 x ( k + 1 ) = x ( k ) − λ ( k ) ∇ 2 f ( x ( k ) ) − 1 ∇ f ( x ( k ) ) x^{(k+1)}=x^{\left( k \right)}-\lambda ^{\left( k \right)}\nabla ^2f\left( x^{\left( k \right)} \right) ^{-1}\nabla f\left( x^{\left( k \right)} \right) x(k+1)=x(k)λ(k)2f(x(k))1f(x(k))

  • (5)当 ∥ d ( k ) ∥ < ϵ \left\| d^{\left( k \right)} \right\| <\epsilon d(k) <ϵ,迭代终止,否则, k = k + 1 k=k+1 k=k+1,跳转到 2 2 2

模式搜索法

Powell方法

Powell方法是研究对称正定的二次函数:
f ( x ) = 1 2 x T Q x + b T x + c f(x)=\frac{1}{2}x^TQx+b^Tx+c f(x)=21xTQx+bTx+c
极小化问题时候形成的。

  • (1)选定初始点 x ( 0 ) x^{\left( 0 \right)} x(0) n n n个线性无关向量 d ( i ) d^{(i)} d(i),,给定误差 ϵ > 0 \epsilon>0 ϵ>0,令 k = 1 k=1 k=1, i = 1 , 2 , . . . , n i=1,2,...,n i=1,2,...,n
  • (2)依次对目标函数作直线搜索 { f ( x ( i − 1 ) + λ i d ( i ) ) = min ⁡ λ ∈ R f ( x ( i − 1 ) + λ d ( i ) ) x ( i ) = x ( i − 1 ) + λ i d ( i ) \left\{ \begin{array}{c} f\left( x^{\left( i-1 \right)}+\lambda _id^{\left( i \right)} \right) =\underset{\lambda \in R}{\min}f\left( x^{\left( i-1 \right)}+\lambda d^{\left( i \right)} \right)\\ x^{\left( i \right)}=x^{\left( i-1 \right)}+\lambda _id^{\left( i \right)}\\ \end{array} \right. {f(x(i1)+λid(i))=λRminf(x(i1)+λd(i))x(i)=x(i1)+λid(i)
  • (3) 对 i = 1 , 2 , . . . , n − 1 i=1,2,...,n-1 i=1,2,...,n1 d ( i ) = d ( i + 1 ) d^{(i)}=d^{(i+1)} d(i)=d(i+1), d ( n + 1 ) = x ( n ) − x ( 0 ) d^{(n+1)}=x^{(n)}-x^{(0)} d(n+1)=x(n)x(0),置 d ( n ) = d ( n + 1 ) d^{(n)}=d^{(n+1)} d(n)=d(n+1)
  • (4)直线搜索 x ( n + 1 ) = x ( n ) + λ n + 1 d ( n + 1 ) x^{\left( n+1 \right)}=x^{\left( n \right)}+\lambda _{n+1}d^{\left( n+1 \right)} x(n+1)=x(n)+λn+1d(n+1) f ( x ( n ) + λ n + 1 d ( n + 1 ) ) = min ⁡ f ( x ( n ) + λ d ( n + 1 ) ) f\left( x^{\left( n \right)}+\lambda _{n+1}d^{\left( n+1 \right)} \right) =\min f\left( x^{\left( n \right)}+\lambda d^{\left( n+1 \right)} \right) f(x(n)+λn+1d(n+1))=minf(x(n)+λd(n+1))
  • (5) ∥ x ( n + 1 ) − x ( 0 ) ∥ < ϵ , x ( n + 1 ) \left\| x^{\left( n+1 \right)}-x^{\left( 0 \right)} \right\| <\epsilon ,x^{\left( n+1 \right)} x(n+1)x(0) <ϵ,x(n+1)就是所求的极小值点,则停止计算,否则转第 6 6 6
  • (6)置 x ( 0 ) = x ( n + 1 ) x^{(0)}=x^{(n+1)} x(0)=x(n+1) ( 2 ) (2) (2)

有约束非线性规划

有约束非线性规划的一般数学模型为如下形式:
min ⁡ f ( x ) s . t . { g i ( x ) ⩾ 0 , i = 1 , 2 , . . . , m h j ( x ) = 0 , j = 1 , 2 , . . . , n \min f\left( x \right) \\ s.t.\left\{ \begin{array}{c} g_i\left( x \right) \geqslant 0,i=1,2,...,m\\ h_j\left( x \right) =0,j=1,2,...,n\\ \end{array} \right. minf(x)s.t.{gi(x)0,i=1,2,...,mhj(x)=0,j=1,2,...,n
其中 f ( x ) , g i ( x ) , h i ( x ) f(x),g_{i}(x),h_{i}(x) f(x)gi(x),hi(x)至少有一个非线性函数。

外点罚函数法

外点罚函数法是一种将有约束优化问题转化为无约束优化问题的方法。其核心思想是通过在目标函数中添加一个罚项,当约束条件不满足时,罚项的值会变得很大,从而迫使无约束优化问题的解逐渐逼近原约束优化问题的可行域。

  1. 对于只含等式约束的优化问题:
    min ⁡ f ( x ) s . t . h j ( x ) = 0 , j = 1 , 2 , . . . , l \min f\left( x \right) \\ s.t. h_j\left( x \right) =0,j=1,2,...,l\\ minf(x)s.t.hj(x)=0,j=1,2,...,l
    采用如下方法建立罚函数:
    F ( x , m k ) = f ( x ) + m k ∑ j = 1 l h j 2 ( x ) F\left( x,m_k \right) =f\left( x \right) +m_k\sum_{j=1}^l{h_{j}^{2}\left( x \right)} F(x,mk)=f(x)+mkj=1lhj2(x)
    这样,我们就把原约束问题化为如下的无约束问题:
    m i n F ( x , m k ) min F(x,m_k) minF(x,mk)
  2. 对于不等式条件:
    构造罚函数:
    F ( x , m k ) = f ( x ) + m k ∑ i = 1 m g i 2 ( x ) u i ( g i ) , u 为单位跃阶函数 F\left( x,m_k \right) =f\left( x \right) +m_k\sum_{i=1}^m{g_{i}^{2}\left( x \right) u_i\left( g_i \right)},u\text{为单位跃阶函数} F(x,mk)=f(x)+mki=1mgi2(x)ui(gi),u为单位跃阶函数
  3. 综合以上思想,我们可以处理一般的罚函数
    对于包含等式约束 h j ( x ) = 0 h_j(x) = 0 hj(x)=0 j = 1 , 2 , ⋯   , l j = 1, 2, \cdots, l j=1,2,,l)和不等式约束 g i ( x ) ≤ 0 g_i(x) \leq 0 gi(x)0 i = 1 , 2 , ⋯   , m i = 1, 2, \cdots, m i=1,2,,m)的一般约束优化问题:
    min ⁡ f ( x ) s.t. h j ( x ) = 0 , j = 1 , 2 , ⋯   , l g i ( x ) ≤ 0 , i = 1 , 2 , ⋯   , m \begin{align*} \min &\quad f(x) \\ \text{s.t.} &\quad h_j(x) = 0, \quad j = 1, 2, \cdots, l \\ &\quad g_i(x) \leq 0, \quad i = 1, 2, \cdots, m \end{align*} mins.t.f(x)hj(x)=0,j=1,2,,lgi(x)0,i=1,2,,m
    可以构造外点罚函数:
    F ( x , m k ) = f ( x ) + m k ( ∑ j = 1 l h j 2 ( x ) + ∑ i = 1 m [ max ⁡ { 0 , g i ( x ) } ] 2 ) F(x, m_k) = f(x) + m_k \left( \sum_{j = 1}^l h_j^2(x) + \sum_{i = 1}^m [\max\{0, g_i(x)\}]^2 \right) F(x,mk)=f(x)+mk(j=1lhj2(x)+i=1m[max{0,gi(x)}]2)
    其中, m k m_k mk 是罚因子,且满足 0 < m 1 < m 2 < ⋯ < m k < ⋯ 0 < m_1 < m_2 < \cdots < m_k < \cdots 0<m1<m2<<mk< lim ⁡ k → ∞ m k = ∞ \lim_{k \to \infty} m_k = \infty limkmk=

算法步骤

  1. 初始化:选择初始点 x ( 0 ) x^{(0)} x(0),初始罚因子 m 1 > 0 m_1 > 0 m1>0,罚因子增长系数 c > 1 c > 1 c>1,收敛精度 ϵ > 0 \epsilon > 0 ϵ>0,令 k = 1 k = 1 k=1
  2. 求解无约束优化问题:以 x ( k − 1 ) x^{(k - 1)} x(k1) 为初始点,求解无约束优化问题 min ⁡ F ( x , m k ) \min F(x, m_k) minF(x,mk),得到最优解 x ( k ) x^{(k)} x(k)
  3. 判断收敛条件:如果满足 ∣ F ( x ( k ) , m k ) − F ( x ( k − 1 ) , m k − 1 ) ∣ < ϵ \left| F(x^{(k)}, m_k) - F(x^{(k - 1)}, m_{k - 1}) \right| < \epsilon F(x(k),mk)F(x(k1),mk1) <ϵ 或者约束条件的违反程度足够小(例如, ∑ j = 1 l h j 2 ( x ( k ) ) + ∑ i = 1 m [ max ⁡ { 0 , g i ( x ( k ) ) } ] 2 < ϵ \sum_{j = 1}^l h_j^2(x^{(k)}) + \sum_{i = 1}^m [\max\{0, g_i(x^{(k)})\}]^2 < \epsilon j=1lhj2(x(k))+i=1m[max{0,gi(x(k))}]2<ϵ),则停止迭代, x ( k ) x^{(k)} x(k) 即为原约束优化问题的近似最优解;否则,进入下一步。
  4. 更新罚因子:令 m k + 1 = c m k m_{k + 1} = c m_k mk+1=cmk k = k + 1 k = k + 1 k=k+1,返回步骤 2。

Python 代码实现

import numpy as np
from scipy.optimize import minimize

def penalty_function(x, f, h, g, mk):
    """
    计算外点罚函数的值
    :param x: 当前点
    :param f: 目标函数
    :param h: 等式约束函数列表
    :param g: 不等式约束函数列表
    :param mk: 罚因子
    :return: 罚函数的值
    """
    penalty_term = 0
    # 等式约束的罚项
    for hj in h:
        penalty_term += hj(x) ** 2
    # 不等式约束的罚项
    for gi in g:
        penalty_term += max(0, gi(x)) ** 2
    return f(x) + mk * penalty_term

def outer_penalty_method(f, h, g, x0, m1=1.0, c=10.0, epsilon=1e-6, max_iter=100):
    """
    外点罚函数法求解约束优化问题
    :param f: 目标函数
    :param h: 等式约束函数列表
    :param g: 不等式约束函数列表
    :param x0: 初始点
    :param m1: 初始罚因子
    :param c: 罚因子增长系数
    :param epsilon: 收敛精度
    :param max_iter: 最大迭代次数
    :return: 最优解
    """
    mk = m1
    x = np.array(x0)
    for k in range(max_iter):
        # 定义当前罚函数
        def current_penalty(x):
            return penalty_function(x, f, h, g, mk)
        # 求解无约束优化问题
        result = minimize(current_penalty, x)
        x_new = result.x
        # 判断收敛条件
        if k > 0 and np.abs(current_penalty(x_new) - current_penalty(x)) < epsilon:
            break
        x = x_new
        # 更新罚因子
        mk *= c
    return x

# 示例:求解一个简单的约束优化问题
# 目标函数
def f(x):
    return (x[0] - 1) ** 2 + (x[1] - 2.5) ** 2

# 等式约束
def h1(x):
    return x[0] + x[1] - 3

# 不等式约束
def g1(x):
    return -x[0] + 2

def g2(x):
    return -x[1] + 2

# 初始点
x0 = [0, 0]

# 调用外点罚函数法
optimal_x = outer_penalty_method(f, [h1], [g1, g2], x0)

print("最优解:", optimal_x)

注意事项

  • 罚因子的增长系数 c c c 和初始罚因子 m 1 m_1 m1 的选择会影响算法的收敛速度和稳定性,需要根据具体问题进行调整。
  • 无约束优化问题的求解可以使用不同的优化算法,这里使用了 scipy.optimize.minimize 函数,你可以根据需要选择其他合适的算法。

内点罚函数法

内点罚函数法(Interior Point Penalty Method),也称为障碍函数法,是一种用于求解有约束优化问题的重要方法。它主要适用于只包含不等式约束的优化问题,基本思想是在可行域内部设置障碍,使得迭代点始终保持在可行域内,并且随着迭代的进行,障碍的作用逐渐减弱,从而使迭代点逼近最优解。以下将详细介绍内点罚函数法的原理、算法步骤,并给出 Python 代码示例。

原理

考虑如下只含不等式约束的优化问题:
min ⁡ f ( x ) s.t. g i ( x ) ≤ 0 , i = 1 , 2 , ⋯   , m \begin{align*} \min &\quad f(x) \\ \text{s.t.} &\quad g_i(x) \leq 0, \quad i = 1, 2, \cdots, m \end{align*} mins.t.f(x)gi(x)0,i=1,2,,m
内点罚函数法通过构造障碍函数来实现。常见的障碍函数有倒数障碍函数和对数障碍函数。

倒数障碍函数

B ( x , r k ) = f ( x ) + r k ∑ i = 1 m 1 − g i ( x ) B(x, r_k) = f(x) + r_k \sum_{i = 1}^{m} \frac{1}{-g_i(x)} B(x,rk)=f(x)+rki=1mgi(x)1

对数障碍函数

B ( x , r k ) = f ( x ) − r k ∑ i = 1 m ln ⁡ ( − g i ( x ) ) B(x, r_k) = f(x) - r_k \sum_{i = 1}^{m} \ln(-g_i(x)) B(x,rk)=f(x)rki=1mln(gi(x))

其中, r k r_k rk 是障碍因子,且满足 r 1 > r 2 > ⋯ > r k > ⋯ r_1 > r_2 > \cdots > r_k > \cdots r1>r2>>rk> lim ⁡ k → ∞ r k = 0 \lim_{k \to \infty} r_k = 0 limkrk=0。当迭代点接近可行域边界时,障碍函数的值会变得很大,从而阻止迭代点越过边界。

算法步骤

  1. 初始化:选择一个初始可行点 x ( 0 ) x^{(0)} x(0)(即满足所有不等式约束 g i ( x ( 0 ) ) ≤ 0 g_i(x^{(0)}) \leq 0 gi(x(0))0 i = 1 , 2 , ⋯   , m i = 1, 2, \cdots, m i=1,2,,m),初始障碍因子 r 1 > 0 r_1 > 0 r1>0,障碍因子缩减系数 c ∈ ( 0 , 1 ) c \in (0, 1) c(0,1),收敛精度 ϵ > 0 \epsilon > 0 ϵ>0,令 k = 1 k = 1 k=1
  2. 求解无约束优化问题:以 x ( k − 1 ) x^{(k - 1)} x(k1) 为初始点,求解无约束优化问题 min ⁡ B ( x , r k ) \min B(x, r_k) minB(x,rk),得到最优解 x ( k ) x^{(k)} x(k)
  3. 判断收敛条件:如果满足 ∣ r k ∑ i = 1 m 1 − g i ( x ( k ) ) ∣ < ϵ \left| r_k \sum_{i = 1}^{m} \frac{1}{-g_i(x^{(k)})} \right| < \epsilon rki=1mgi(x(k))1 <ϵ(对于倒数障碍函数)或者 ∣ − r k ∑ i = 1 m ln ⁡ ( − g i ( x ( k ) ) ∣ < ϵ \left| -r_k \sum_{i = 1}^{m} \ln(-g_i(x^{(k)}) \right| < \epsilon rki=1mln(gi(x(k)) <ϵ(对于对数障碍函数),则停止迭代, x ( k ) x^{(k)} x(k) 即为原约束优化问题的近似最优解;否则,进入下一步。
  4. 更新障碍因子:令 r k + 1 = c r k r_{k + 1} = c r_k rk+1=crk k = k + 1 k = k + 1 k=k+1,返回步骤 2。

Python 代码示例(使用对数障碍函数)

import numpy as np
from scipy.optimize import minimize

def logarithmic_barrier_function(x, f, g, rk):
    """
    计算对数障碍函数的值
    :param x: 当前点
    :param f: 目标函数
    :param g: 不等式约束函数列表
    :param rk: 障碍因子
    :return: 对数障碍函数的值
    """
    barrier_term = 0
    for gi in g:
        if gi(x) >= 0:
            # 如果不满足不等式约束,返回一个很大的值
            return np.inf
        barrier_term += np.log(-gi(x))
    return f(x) - rk * barrier_term

def interior_point_method(f, g, x0, r1=1.0, c=0.1, epsilon=1e-6, max_iter=100):
    """
    内点罚函数法求解约束优化问题
    :param f: 目标函数
    :param g: 不等式约束函数列表
    :param x0: 初始可行点
    :param r1: 初始障碍因子
    :param c: 障碍因子缩减系数
    :param epsilon: 收敛精度
    :param max_iter: 最大迭代次数
    :return: 最优解
    """
    rk = r1
    x = np.array(x0)
    for k in range(max_iter):
        # 定义当前对数障碍函数
        def current_barrier(x):
            return logarithmic_barrier_function(x, f, g, rk)
        # 求解无约束优化问题
        result = minimize(current_barrier, x)
        x_new = result.x
        # 判断收敛条件
        barrier_term = 0
        for gi in g:
            barrier_term += np.log(-gi(x_new))
        if np.abs(-rk * barrier_term) < epsilon:
            break
        x = x_new
        # 更新障碍因子
        rk *= c
    return x

# 示例:求解一个简单的约束优化问题
# 目标函数
def f(x):
    return (x[0] - 1) ** 2 + (x[1] - 2.5) ** 2

# 不等式约束
def g1(x):
    return -x[0] + 2

def g2(x):
    return -x[1] + 2

# 初始可行点
x0 = [1, 1]

# 调用内点罚函数法
optimal_x = interior_point_method(f, [g1, g2], x0)

print("最优解:", optimal_x)

代码说明

  1. logarithmic_barrier_function 函数:用于计算对数障碍函数的值。如果迭代点不满足不等式约束,返回一个很大的值,以避免该点被选为最优解。
  2. interior_point_method 函数:实现了内点罚函数法的主要步骤,包括初始化、求解无约束优化问题、判断收敛条件和更新障碍因子。
  3. 示例:定义了一个简单的约束优化问题,包含两个不等式约束,调用 interior_point_method 函数求解最优解。

注意事项

  • 初始可行点的选择非常重要,如果选择不当,可能会导致算法无法收敛。
  • 障碍因子的缩减系数 c c c 和初始障碍因子 r 1 r_1 r1 的选择会影响算法的收敛速度和稳定性,需要根据具体问题进行调整。

http://www.kler.cn/a/560289.html

相关文章:

  • Visual Whole-Body for Loco-Manipulation论文复现
  • 【Unity】Unity clone 场景渲染的灯光贴图异位问题
  • 【Java 优选算法】模拟
  • 客户反馈中常见的投诉类型及应对策略
  • OpenBMC:BmcWeb server.run
  • 【OMCI实践】ONT上线过程的omci消息(五)
  • Web刷题之PolarDN(中等)
  • 验证码介绍及生成与验证
  • Python的PyTorch+CNN深度学习技术在人脸识别项目中的应用
  • Android开发数据持久化
  • HTML使用 Vue 3 和 Element Plus 实现图片上传功能
  • 《渗透测试方法论:从信息搜集到报告输出的死亡行军》
  • python学习一
  • Spring Boot 项目启动命令大全:参数详解与高阶用法
  • (六)趣学设计模式 之 代理模式!
  • Hyperledger Fabric 入门笔记(十九)Fabric V2.5 杂项 - 在开发模式下运行链码
  • OpenCV计算摄影学Computational Photography
  • 【嵌入式Linux应用开发基础】网络编程(1):TCP/IP协议栈
  • 【备赛】点亮LED
  • 【信息系统项目管理师-案例真题】2010下半年案例分析答案和详解