我是靠谱客的博主 大方墨镜,最近开发中收集的这篇文章主要介绍贝叶斯优化(BayesianOptimization)贝叶斯优化,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

文章目录

  • 贝叶斯优化
    • 贝叶斯优化器的介绍
    • 采集函数(Acquisition Function,AC)
      • UCB(Upper confidence bound)
      • PI(probability of improvement)
      • EI(Expected improvement)
    • 算法流程
    • 贝叶斯优化的一个模拟实验
      • 探索(exploration)与利用(exploitation)
      • 贝叶斯优化过程
    • 贝叶斯优化的应用

贝叶斯优化

  这篇blog参考github上一个基于高斯过程回归的贝叶斯优化开源项目(python):https://github.com/fmfn/BayesianOptimization


贝叶斯优化器的介绍

  贝叶斯优化在不知道目标函数(黑箱函数)长什么样子的情况下,通过猜测黑箱函数长什么样,来求一个可接受的最大值。和网格搜索相比,优点是迭代次数少(节省时间),粒度可以到很小,缺点是不容易找到全局最优解。
  贝叶斯优化流程图如下:

在这里插入图片描述
  贝叶斯优化有两个核心过程,先验函数(Prior Function,PF)与采集函数(Acquisition Function,AC),采集函数也可以叫效能函数(Utility Funtcion),但一般还是称呼为采集函数,见下面引用论文A Tutorial on Bayesian Optimization of Expensive Cost Functions, with Application to Active User Modeling and Hierarchical Reinforcement Learning的话。PF主要利用高斯过程回归(也可以是其它PF函数,但高斯过程回归用的多);AC主要包括EI,PI,UCB这几种方法,同时exploration与exploitation的平衡,也是通过AC来完成的。

The process of deciding where to sample next requires the choice of a utility function…To make clear which function we are discussing, we will refer to this utility as the acquisition function (also sometimes called the infill function)


采集函数(Acquisition Function,AC)

  常见的采集函数有下面三种,UCB,PI,EI,先介绍最好理解的UCB。

UCB(Upper confidence bound)

   U C B = μ ( x ) + k σ ( x ) UCB=mu (x)+ksigma (x) UCB=μ(x)+kσ(x),k为调节参数,直观地理解为上置信边界。

PI(probability of improvement)

   P I ( x ) = P ( f ( x ) ≥ f ( x + ) + υ ) = Φ ( μ ( x ) − f ( x + ) − υ σ ( x ) ) PI(x)=P(f(x)geq f(x^{+})+upsilon)=Phi (frac{mu(x)-f(x^{+})-upsilon}{sigma(x)}) PI(x)=P(f(x)f(x+)+υ)=Φ(σ(x)μ(x)f(x+)υ)
  超参数 υ upsilon υ用于调节exploitation与exploitation, υ = 0 upsilon=0 υ=0更倾向于收敛到 f ( x + ) 附 近 , f(x^{+})附近, f(x+)
Φ ( ⋅ ) 表 示 正 态 累 计 分 布 函 数 , f ( x + ) 表 示 现 有 的 最 大 值 。 Phi(·)表示正态累计分布函数, f(x^{+})表示现有的最大值。 Φ()f(x+)
  其原理就是找到未知点的函数值比 f ( x + ) f(x^{+}) f(x+)大的概率,取这些点中概率最大的点,具体比 f ( x + ) f(x^{+}) f(x+)大多少不考虑,这里通过Z-scores标准化法,让每个未知点函数值大于 f ( x + ) f(x^{+}) f(x+)的概率可以进行比较。
  Z-scores标准化法, x − μ σ frac{x-mu}{sigma} σxμ,x为观察点, μ mu μ为所有观察点的均值, σ sigma σ为所有观察点标准差, x − μ σ frac{x-mu}{sigma} σxμ的概率密度函数符合标准正态分布。

EI(Expected improvement)

E I ( x ) = { ( μ ( x ) − f ( x + ) ) Φ ( z ) + σ ( x ) Φ ( z ) σ > 0 0 σ = 0 EI(x)=begin{cases} (mu (x)-f(x^{+}))Phi(z)+sigma(x)Phi(z) & sigma>0 \ 0 & sigma=0 end{cases} EI(x)={(μ(x)f(x+))Φ(z)+σ(x)Φ(z)0σ>0σ=0
z = μ ( x ) − f ( x + ) σ z=frac{mu(x)-f(x^{+})}{sigma} z=σμ(x)f(x+)
   Φ ( ⋅ ) Phi(·) Φ()为正态累计分布函数, ϕ ( ⋅ ) phi(·) ϕ()为正态概率密度函数, f ( x + ) f(x^{+}) f(x+)表示现有的最大值。
  EI函数解决了PI未考虑未知点,比已知最大点大多少的问题,EI函数求的是未知点函数值比 f ( x + ) f(x^{+}) f(x+)大的期望。具体推导过程需要看文献A Tutorial on Bayesian Optimization of Expensive Cost Functions, with Application to Active User Modeling and Hierarchical Reinforcement Learning。[我有空仔细看看在回来补上,当时大体看看没看懂。]


算法流程

输 入 : 输入:
     t a r g e t : 黑 箱 函 数 ~~~~target:黑箱函数     target:
     x : 自 变 量 取 值 范 围 ~~~~x:自变量取值范围     x:
     Y : 可 以 接 受 的 黑 箱 函 数 因 变 量 取 值 ~~~~Y:可以接受的黑箱函数因变量取值     Y:
输 出 : 输出:
     x : 贝 叶 斯 优 化 器 猜 测 的 最 大 值 的 x 值 ~~~~x:贝叶斯优化器猜测的最大值的x值     x:x
     t a r g e t ( x n e w ) : 贝 叶 斯 优 化 器 猜 测 的 最 大 值 的 函 数 值 ~~~~target(xnew):贝叶斯优化器猜测的最大值的函数值     target(xnew):

伪代码:

def BayesianOptimization(target,x,Y):
    IF 初始化?
        Yes: 
            xold为已知的所有点中目标函数取得最大值的自变量值
            IF target(xold)>Y?     
                Yes:   return xold,target(xold)    #撞了大运,还没开始迭代就结束了
                No:    Pass
        No:  随机初始化
    While    target(xnew)<Y:
        利用PF(高斯过程回归)求解未知点(在事先定义的自变量范围内,有成千上万个未知点)的均值与方差
        利用AC(EI或PI或UCB)找到贝叶斯优化器猜测的最大值的点xnew,一般是AC函数最大点
    return   xnew,target(new)

贝叶斯优化的一个模拟实验

  假设我们想知道下面这个黑箱函数在(-2,10)的最大值, f ( x ) = e − ( x − 2 ) 2 + e − ( x − 6 ) 2 10 + 1 x 2 + 1 , f(x)=e^{-(x-2)^2}+e^{frac{-(x-6)^2}{10}}+frac{1}{x^2+1}, f(x)=e(x2)2+e10(x6)2+x2+11最大值大概是14,我们假定找到一个点其函数值大于13,就已经可以接受了,返回该函数值。

探索(exploration)与利用(exploitation)

  探索(exploration):简单来说就是尽量选择远离已知点的点为下一次用于迭代的参考点,即尽量探索未知的区域,点的分布会尽可能的平均。
  利用(exploitation):简单来说就是尽量选择靠近已知点的点为下一次用于迭代的参考点,即尽量挖掘已知点周围的点,点的分布会出现一个密集区域,容易进入局部最大。
  如下,上面的图表示贝叶斯优化器以利用为主,下面图表示贝叶斯优化器以探索为主。

  在上文提到的github项目中,通过kappa这个参数平衡探索和利用,如上,上面的图kappa=0.1,下面的图kappa=10,我们下面的代码取kappa等于1.96,即 U C B = μ ( x ) + 1.96 σ ( x ) UCB=mu (x)+1.96sigma (x) UCB=μ(x)+1.96σ(x)github示例中kappa取的是中间值5,这里取1.96是为了让下面演示贝叶斯优化过程中,UCB就是95%置信区间的上界,更好理解UCB是什么,详细请看下面的贝叶斯优化过程。

贝叶斯优化过程

  下面第一个图产生的两个点(红点)其实是初始化过程产生的,和贝叶斯优化没有什么关系,为了方便分析,这里默认初始化的两个点也是贝叶斯优化前两次迭代过程产生的,也就是说,在经过几次迭代,即标题中的"After xxx Steps",就有xxx个点的值显示在每次迭代的上面的图中(红点标注),每次迭代的下面的图是根据UCB确定的。

  看第9步迭代结果,可见第9步迭代结果就已经很接近真实的最大值,如果我们认为大于1.3的结果我们就可以接受,所以第9个确定的点就是可以接受的点,这时贝叶斯优化器就会退出迭代,把该点的值和函数值返回。
  与网格搜索相比较,贝叶斯优化器可以很快地确定一个可以接受的的值,这在求黑箱函数任意函数值的时间复杂度很高时,显得尤其的有优势,同时贝叶斯优化器没有搜索细度的限制。缺点是返回的结果不一定是真实的最大值(网格搜索也不一定能找到)。

  下面以第5次迭代到第6次迭代为例,讲解一下具体的步骤

  如左上图,在经过了五次迭代后,左上图已经有五个确定的点(红点标出),但是此时的最大的已确定点3达不到预期的要求(假设我们要求找到的点的函数值一定要大于1.3,不大于1.3就继续猜),因此贝叶斯优化器需要根据已知的情况(五个确定的点)进一步猜测最大点在哪里,按照UCB策略,贝叶斯优化器就计算出左下的AC函数,AC函数图像我不说也能猜到,就是左上图中的蓝色边界上界,而AC函数最大值就是贝叶斯优化器猜的第六个点的位置,计算该点的函数值,看右上图,发现点6确实比点3好一点,但是还达不到要求,继续猜第7个点的位置,就是右下图新的AC函数取得最大值的位置。
  现在说一下左上图和右上图中的虚线和蓝色区间,虚线表示高斯回归过程求得的未知点的均值 μ mu μ,同时高斯过程也会给出未知点的标准差 σ sigma σ(和已知点相比,未知点太多了),而蓝色区间就是 μ ± 1.96 σ mu pm 1.96sigma μ±1.96σ,所以可见越是靠近已知点,标准差越小,越是远离已知点,标准差越大,此时说明高斯过程回归对这个未知点越不确定。
  95%的置信区间是 μ ± 1.96 σ mu pm 1.96sigma μ±1.96σ,理解为未知点的均值落在 μ ± 1.96 σ mu pm 1.96sigma μ±1.96σ区间内的概率为0.95(已经很高了),关于置信区间计算,可以看Blog:https://blog.csdn.net/bitcarmanlee/article/details/82709774
  关于高斯过程回归,有空我在单独写一篇blog介绍。


贝叶斯优化的应用

  贝叶斯优化器用于调参,可以很快找到一个可以接受的超参数值,和网格搜索相比,优点是迭代次数少(节省时间),粒度可以到很小,缺点是不容易找到全局最优解。例如我们想调logistic回归的正则化超参数,就把黑箱函数设置成logistic回归,自变量为超参数,因变量为logistic回归在训练集准确度,设置一个可以接受的黑箱函数因变量取值,例如0.95,得到的超参数结果就是可以让logistic回归分类准确度超过0.95的一个超参数。

最后

以上就是大方墨镜为你收集整理的贝叶斯优化(BayesianOptimization)贝叶斯优化的全部内容,希望文章能够帮你解决贝叶斯优化(BayesianOptimization)贝叶斯优化所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(40)

评论列表共有 0 条评论

立即
投稿
返回
顶部