情境最佳化
没有或很少条目链入本条目。 (2019年1月23日) |
情境最佳化(scenario optimization)也称为情境方法(scenario approach),是一种求解强健最佳化问题和机会约束规划(chance-constrained optimization)问题的方式,其方法会以一些约束的样本为基础。情境最佳化也和建模及决策中的归纳推理有关。此方法已以启发法的形式存在了数十年,近来开始探讨此方法系统化理论的基础。
简介
编辑在最优化的应用中,强健性的特点会转变成一些拘束条件,其中的参数是问题中的未知量。在情境最佳化方法[1][2][3]中,会用乱数取样的方式,找到一些乱数取样的拘束样本(启发法),这些拘束样本称为“情境”(scenarios),会先只根据这些拘束条件找到一个解,之后再配合其他方法求得这个解和其他拘束之间的强健性。此理论证实了在强健最佳化及机会约束最佳化中,使用乱数是合理的。
资料驱动的最佳化
编辑有时情境的资讯是由模型中以乱数的方式拮取出来。不过更常见的是情境是从观测资料中找到的不确定事件(数据科学)。在后者的情形下,不需要不确定性的模型即可以产生情境。最值得注意的是,此情形下的情境最佳化伴随著的是 成熟的理论,因为所有情境最佳化的结果都和分布无关,因此可以应用在没有不确定性模型或是缺乏类似资讯的情形下。
理论结果
编辑针对凸拘束(也就是和线性矩阵不等式有关的半定问题),已有深入的理论分析说明新的拘束无法满足的机率是依照以β分布为主的分布。针对所有凸优化问题的结果也是如此[3]。再继续扩展,有许多实验等级的结果是依照狄利克雷分布,其边缘分布为β分布[4]。也有探讨过配合 正则化的情境最佳化[5],也有便利的算法,可以简化运算的复杂度[6]。有关更复杂、非凸拘束的研究是目前热门的研究主题。
配合情境最佳化,可以在风险和回报中取得权衡[7][8],而且有完整的方法可以将此结果应用在控制上[9]。一开始先选择 个拘束开始进行最佳化,之后持续的移除其中的一些拘束,移除过程可以用不同的方式行,甚至是利用贪心法。每当多消除一个拘束后,会更新最佳化的解,也会得到对应最佳化的数值。在此程序持续进行时,可以得到经验式的“最佳值曲线”,也就是在移除多少数量的拘束后,最佳值的变化。情境最佳化可以针对各个解的强健性作准确的评估。
此技术一个很大的进步是透过wait-and-judge方法得到的[10]:先评估解的复杂度(如前面所述),并根据其值的公式来评估解的强健性。这些结果可以看来复杂度和风险二个概念之间的深层关系。有一个相关的研究方式,称为“重复情形设计”(Repetitive Scenario Design),是用透过重复的交替情境设计的阶段(用较少的样本)再随机的确认其解的可行性,目的是要降低解的复杂度[11]。
例子
编辑考虑一函数 为投资的获利,此函数和投资选择向量 及市场状态 有关,这些资讯在投资周期的最后会知道。
假设一个市场状态的随机模型,考虑有 个可能状态 (乱数或是不确定性)。接著,可以从观察记录中找到情境 。
要求解以下的情境最佳化问题
对应一个投资组合向量x,可以在最坏的情境下有最好的报酬[12][13]。
在求解(1)后,可以得到最佳投资策略 ,对应此情形的最佳报酬 。当. While 只根据 个可能的市场状态求得时,透过情境最佳化理论可以得到其强健性最大到 ,意思是指,在其他的市场状态下,可达到报酬 达到的机率只有 。
在量化金融上,最坏条件的分析可能过于保守。另一种作法是不考虑一些奇怪的情形,以减少悲观情绪[7],而情境最佳化也可以用在其他风险度量中,例如CVaR(风险条件值,Conditional Value at Risk),因此增加使用灵活度[14]。
应用领域
编辑参考资料
编辑- ^ G. Calafiore and M.C. Campi. Uncertain Convex Programs: Randomized Solutions and Confidence Levels. Mathematical Programming, 102: 25–46, 2005. [1] Archive.is的存档,存档日期2013-02-03
- ^ G. Calafiore and M.C. Campi. "The scenario approach to robust control design," IEEE Transactions on Automatic Control, 51(5). 742-753, 2006. [2]
- ^ 3.0 3.1 M.C. Campi and S. Garatti. The Exact Feasibility of Randomized Solutions of Uncertain Convex Programs. SIAM J. on Optimization, 19, no.3: 1211–1230, 2008.[3]
- ^ A. Caré, S. Garatti and M.C. Campi.Scenario min-max optimization and the risk of empirical costs . SIAM Journal on Optimization, 25, no.4: 2061-2080, 2015, Mathematical Programming, published online, 2016. [4] (页面存档备份,存于互联网档案馆)
- ^ M.C. Campi and A. Carè. Random convex programs with L1-regularization: sparsity and generalization. SIAM Journal on Control and Optimization, 51, no.5: 3532-3557, 2013. [5] (页面存档备份,存于互联网档案馆)
- ^ A. Caré, S. Garatti and M.C. Campi. FAST - Fast Algorithm for the Scenario Technique. Operations Research, 62, no.3: 662-671, 2014. [6] (页面存档备份,存于互联网档案馆)
- ^ 7.0 7.1 M.C. Campi and S. Garatti. A Sampling-and-Discarding Approach to Chance-Constrained Optimization: Feasibility and Optimality. Journal of Optimization Theory and Applications, 148, Number 2, 257–280, 2011 (preliminary version published in Optimization Online, 2008). [7][永久失效链接]
- ^ G.C. Calafiore. Random Convex Programs. SIAM J. on Optimization, 20(6) 3427-3464, 2010. [8] (页面存档备份,存于互联网档案馆)
- ^ S. Garatti and M.C. Campi. Modulating Robustness in Control Design: Principles and Algorithms.. IEEE Control Systems Magazine, 33, 36–51, 2013. [9]
- ^ M.C. Campi and S. Garatti. Wait-and-judge scenario optimization.. Mathematical Programming, published online, 2016. [10] (页面存档备份,存于互联网档案馆)
- ^ G.C. Calafiore. Repetitive Scenario Design. IEEE Transactions on Automatic Control, Vol. 62, Issue 3, March 2017, pp. 1125-1137. [11] (页面存档备份,存于互联网档案馆)
- ^ B.K. Pagnoncelli, D. Reich and M.C. Campi. Risk-Return Trade-off with the Scenario Approach in Practice: A Case Study in Portfolio Selection. Journal of Optimization Theory and Applications, 155: 707-722, 2012. [12] (页面存档备份,存于互联网档案馆)
- ^ G.C. Calafiore. Direct data-driven portfolio optimization with guaranteed shortfall probability. Automatica, 49(2) 370-380, 2013. [13]
- ^ M.C. Campi and Federico Alessandro Ramponi. Expected shortfall: Heuristics and certificates. European Journal of Operational Research. [14]