Please use this identifier to cite or link to this item: http://repositorio.unicamp.br/jspui/handle/REPOSIP/331955
Type: TESE DIGITAL
Degree Level: Doutorado
Title: Sampling techniques for nonsmooth optimization = Técnicas amostrais para otimização não suave
Title Alternative: Técnicas amostrais para otimização não suave
Author: Simões, Lucas Eduardo Azevedo, 1989-
Advisor: Santos, Sandra Augusta, 1964-
Abstract: Resumo: O método amostral de gradientes (GS) é um algoritmo recentemente desenvolvido para resolver problemas de otimização não suave. Fazendo uso de informações de primeira ordem da função objetivo, este método generaliza o método de máxima descida, um dos clássicos algoritmos para minimização de funções suaves. Este estudo tem como objetivo desenvolver e explorar diferentes métodos amostrais para a otimização numérica de funções não suaves. Inicialmente, provamos que é possível ter uma convergência global para o método GS na ausência do procedimento chamado "teste de diferenciabilidade". Posteriormente, apresentamos condições que devem ser esperadas para a obtenção de uma taxa de convergência local linear do método GS. Finalmente, um novo método amostral com convergência local superlinear é apresentado, o qual se baseia não somente no cálculo de gradientes, mas também nos valores da função objetivo nos pontos sorteados

Abstract: The Gradient Sampling (GS) method is a recently developed tool for solving unconstrained nonsmooth optimization problems. Using just first order information of the objective function, it generalizes the steepest descent method, one of the most classical methods for minimizing a smooth function. This study aims at developing and exploring different sampling algorithms for the numerical optimization of nonsmooth functions. First, we prove that it is possible to have a global convergence result for the GS method in the abscence of the differentiability check procedure. Second, we prove in which circumstances one can expect the GS method to have a linear convergence rate. Lastly, a new sampling algorithm with superlinear convergence is presented, which rests not only upon the gradient but also on the objective function value at the sampled points
Subject: Otimização não diferenciável
Otimização matemática
Otimização irrestrita
Algoritmos
Amostragem (Estatística)
Language: Inglês
Editor: [s.n.]
Date Issue: 2017
Appears in Collections:IMECC - Tese e Dissertação

Files in This Item:
File SizeFormat 
Simoes_LucasEduardoAzevedo_D.pdf2.31 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.