fbpx
Wikipedia

Optimización (matemática)

En matemáticas, estadísticas, ciencias empíricas, ciencia de la computación, o economía, optimización matemática (o bien, optimización o programación matemática) es la selección del mejor elemento (con respecto a algún criterio) de un conjunto de elementos disponibles. La investigación operativa es uno de los campos de la matemática que sus bases son la optimización.[1]

Gráfico de un paraboloide dado por f(x,y) = -(x²+y²)+4. El máximo global en (0, 0, 4) está indicado por un punto rojo.

En el caso más simple, un problema de optimización consiste en maximizar o minimizar una función real eligiendo sistemáticamente valores de entrada (tomados de un conjunto permitido) y computando el valor de la función. La generalización de la teoría de la optimización y técnicas para otras formulaciones comprende un área grande de las matemáticas aplicadas. De forma general, la optimización incluye el descubrimiento de los "mejores valores" de alguna función objetivo dado un dominio definido, incluyendo una variedad de diferentes tipos de funciones objetivo y diferentes tipos de dominios.

Optimización hace referencia a la acción y efecto de optimizar. En términos generales, se refiere a la capacidad de hacer o resolver alguna cosa de la manera más eficiente posible y, en el mejor de los casos, utilizando la menor cantidad de recursos.

En las últimas décadas, el término optimización se ha vinculado al mundo de la informática. Sin embargo, es un concepto que también se utiliza en las matemáticas, en la gestión de procesos y la economía.

Problemas de optimización

Un problema de optimización puede ser representado de la siguiente forma:

Dada: una función f : A   R.
Buscar: un elemento x0 en A tal que f(x0) ≤ f(x) para todo x en A («minimización») o tal que f(x0) ≥ f(x) para todo x en A («maximización»).

Tal formulación es llamada un problema de optimización o un problema de programación matemática (un término no directamente relacionado con la programación de computadoras pero todavía en uso, por ejemplo en la programación lineal - véase la sección Historia). Muchos problemas teóricos y del mundo real pueden ser modelados mediante este esquema general. Problemas formulados usando esta técnica en los campos de física y visión por computadora se refieren a la técnica como minimización de la energía, hablando del valor de la función f representando la energía del sistema que está siendo modelado.

Típicamente, A es algún subconjunto del espacio euclídeo Rn, con frecuencia delimitado por un conjunto de restricciones, igualdades o desigualdades que los elementos de A tienen que satisfacer. El dominio A de f es llamado el espacio de búsqueda o el conjunto de elección, mientras que los elementos de A son llamados soluciones candidatas o soluciones factibles.

La función f es llamada, diversamente, función objetivo, función de costo (minimización),[2]​ función de utilidad (maximización), función de utilidad indirecta (minimización),[3]​ o, en ciertos campos, función de energía, o energía funcional. Una solución factible que minimice (o maximice, si este es el propósito) la función objetivo, es llamada una solución óptima.

Por convenio, el formato estándar de un problema de optimización está declarado en términos de minimización. Generalmente, a menos que ambas, la función objetivo y la región factible sean convexas en un problema de minimización, puede haber varios mínimos locales, donde un mínimo local x* se define como un punto para el cual existe algún δ > 0, donde para todo x tal que

 

la expresión

 

es verdadera; es decir, en alguna región alrededor de x*, todos los valores de la función son mayores que o iguales al valor en ese punto. El máximo local se define de modo similar.

Un gran número de algoritmos propuestos para resolver problemas no-convexos – incluyendo a la mayoría de los solucionadores disponibles comercialmente – no son capaces de hacer una distinción entre soluciones óptimas locales y soluciones óptimas rigurosas, y tratan a las primeras como soluciones actuales del problema original. La rama de las matemáticas aplicadas y el análisis numérico que se responsabiliza con el desarrollo de algoritmos deterministas que son capaces de garantizar convergencia en tiempo finito a la solución óptima real de un problema no convexo se llama optimización global.

Notación

Los problemas de optimización se expresan a menudo con una notación especial. A continuación se muestran algunos ejemplos.

Mínimo y Máximo valor de una función

Considere la siguiente notación:

 

Esta denota el valor mínimo de la función objetivo  , cuando x se selecciona del conjunto de números reales  . El valor mínimo en este caso es   y ocurre para  .

De modo similar, la notación

 

expresa el valor máximo de la función objetivo 2x, siendo x cualquier número real. En este caso, no existe tal máximo, luego no hay un valor óptimo acotado.

Argumentos de la entrada óptima

Considérese la siguiente expresión:

 

o de manera equivalente

 

Esta representa el valor (o valores) del argumento de x en el intervalo   que minimizan (o maximizan) la función objetivo x2 + 1 (y no el valor mínimo que alcanza la función objetivo para dichos valores). En este caso, la respuesta es x = -1, puesto que x = 0 no es factible, es decir no pertenece al dominio del problema.

De modo similar,

 

que equivalente a

 

representa al par (o pares) (x,y) que minimizan (o maximizan) el valor de la función objetivo xcos(y), con la restricción añadida de que x se encuentra en el intervalo [-5,5] (nuevamente, el valor mínimo de la función no importa). En este caso, las soluciones son los pares de la forma (5, 2kπ) y (−5,(2k+1)π), donde k recorre todos los enteros.

Arg min y arg max a veces aparecen escritos como argmin y argmax, y quieren decir argumento del mínimo y argumento del máximo.

Historia

Pierre de Fermat y Joseph Louis Lagrange encontraron fórmulas basadas en el cálculo para identificar valores óptimos, mientras que Isaac Newton y Carl Friedrich Gauss propusieron métodos iterativos para aproximar el óptimo. Históricamente, el término programación lineal para referirse a ciertos problemas de optimización se debe a George B. Dantzig, aunque gran parte de la teoría había sido introducida por Leonid Kantorovich en 1939. Dantzig publicó el Algoritmo símplex en 1947 y John von Neumann desarrolló la teoría de la dualidad en el mismo año.

El término programación en este contexto no se refiere a la programación de computadoras. Más bien, el término viene del uso de programa por el ejército de Estados Unidos al referirse a la propuesta de entrenamiento y planificación logística, el cual fue el problema estudiado por Dantzig en aquel entonces.

Otros investigadores importantes en el campo de la optimización matemática fueron los siguientes:[cita requerida]

  • Arkadi Nemirovski
  • Yurii Nesterov
  • Boris Polyak
  • Lev Pontryagin
  • James Renegar
  • R. Tyrrell Rockafellar
  • Cornelis Roos
  • Naum Z. Shor
  • Michael J. Todd
  • Albert Tucker
  • Michael Omar Cuñas

Subcampos principales

  • Programación convexa estudia el caso en que la función objetivo es convexa (minimización) o cóncava (maximización) y el conjunto de restricciones es convexo. Este puede ser visto como un caso particular de la programación no lineal o como la generalización de la programación lineal o de la convexa cuadrática.
    • Programación lineal (PL): es un tipo de programación convexa, en el que la función objetivo f es lineal y el conjunto de restricciones se especifica usando solamente ecuaciones e inecuaciones lineales. Dicho conjunto es llamado poliedro o politopo si está acotado.
    • Programación cónica: es una forma general de la programación convexa. PL, PCSO y PSD pueden todos ser vistos como programas cónicos con el tipo de cono apropiado.
    • Programación de cono de segundo orden (PCSO): es un tipo de programación convexa e incluye ciertos tipos de problemas de programación cuadrática.
    • Programación semidefinida (PSD): es un subcampo de la optimización convexa donde las variables fundamentales son matrices semidefinidas. Es una generalización de la programación lineal y la programación cuadrática convexa.
    • Programación geométrica: es una técnica por medio de la cual el objetivo y las restricciones de desigualdad expresados como polinomios y las restricciones de igualdad como monomios, pueden ser transformados en un programa convexo.
    • Programación con enteros o Programación entera: estudia programas lineales en los cuales algunas o todas las variables están obligadas a tomar valores enteros. Esta no es convexa y en general es mucho más compleja que la programación lineal regular.
  • Programación cuadrática: permite a la función objetivo tener términos cuadráticos, mientras que el conjunto factible puede ser especificado con ecuaciones e inecuaciones lineales. Para formas específicas del término cuadrático, esta es un tipo de programación convexa.
  • Programación fraccionaria: estudia la optimización de razones de dos funciones no lineales. La clase especial de programas fraccionarios cóncavos puede ser transformada a un problema de optimización convexa.
  • Programación no lineal: estudia el caso general en el que la función objetivo, o las restricciones, o ambos, contienen partes no lineales. Este puede o no, ser un programa convexo. En general, si el programa es convexo afecta la dificultad de resolución.
  • Programación estocástica u Optimización estocástica: estudia el caso en el que alguna de las restricciones o parámetros depende de variables aleatorias.
  • Programación robusta: como la programación estocástica, es un intento por capturar la incertidumbre en los datos fundamentales del problema de optimización. Esto se hace mediante el uso de variables aleatorias, pero en cambio, el problema es resuelto teniendo en cuenta imprecisiones en los datos de entrada.
  • Optimización combinatoria: se preocupa de los problemas donde el conjunto de soluciones factibles es discreto o puede ser reducido a uno.
  • Optimización dimensional-infinita: estudia el caso donde el conjunto de soluciones factibles es un subconjunto de un espacio de dimensión infinita, por ejemplo un espacio de funciones.
  • Heurísticas y Metaheurísticas: hacen suposiciones sobre el problema que está siendo optimizado. Usualmente, las heurísticas no garantizan que cualquier solución óptima sea encontrada. Luego, las heurísticas son usadas para encontrar soluciones aproximadas para muchos problemas de optimización complicados.
  • Satisfacción de restricción: estudia el caso en el cual la función objetivo f es constante (esta es usada en inteligencia artificial, particularmente en razonamiento automatizado).
  • Programación disyuntiva: se usa cuando al menos una restricción puede ser satisfecha pero no todas. Esta es de uso particular en la programación en un número de subcampos. Las técnicas son diseñadas principalmente para la optimización en contextos dinámicos (es decir, toma de decisiones con el transcurso del tiempo).
  • Cálculo de variaciones: busca optimizar un objetivo definido sobre muchos puntos con el tiempo, considerando como la función objetivo cambia si el cambio es pequeño en el camino de elección. La técnica del control óptimo es una generalización de este.
  • Programación dinámica estudia el caso en el que la estrategia de optimización se basa en la división del problema en subproblemas más pequeños. La ecuación que describe la relación entre estos subproblemas se llama ecuación de Bellman.
  • Programación matemática con restricciones de equilibrio es donde las restricciones incluyen desigualdades variables o complementarias.

Clasificación de puntos críticos y extremos

Factibilidad del problema

La solubilidad del problema, también llamada factibilidad del problema, es la cuestión de si existe alguna solución factible, al margen de su valor objetivo. Este puede ser considerado como el caso especial de la optimización matemática donde el valor objetivo es el mismo para toda solución, y así cualquier solución es óptima.

Muchos algoritmos de optimización necesitan comenzar a partir de un punto factible. Una vía para obtener tal punto es relajar las condiciones de factibilidad usando una variable de holgura; con suficiente holgura, cualquier punto de partida es factible. Entonces, se minimiza esa variable de holgura hasta que la holgura sea nula o negativa.

Existencia

El teorema de Weierstrass afirma que una función real y continua en un conjunto compacto alcanza su valor máximo y mínimo. De forma más general, una función semi-continua inferior en un conjunto compacto alcanza su mínimo; una función semi-continua superior en un conjunto compacto alcanza su máximo.

Condiciones necesarias de optimalidad

Uno de los teoremas de Fermat asegura que los óptimos de los problemas irrestrictos son encontrados en los puntos estacionarios, donde la primera derivada de la función objetivo es cero (o su gradiente nulo). De forma más general, también pueden ser encontrados en los puntos críticos donde la primera derivada o el gradiente de la función objetivo no está definido, o en la frontera del conjunto de elección. Una ecuación (o conjunto de ecuaciones) indicando que la(s) primera(s) derivada(s) es(son) igual(es) a cero en un óptimo interior se llama una condición de primer orden o un conjunto de condiciones de primer orden.

Los óptimos de los problemas con restricciones de desigualdad son en cambio encontrados mediante el método de los multiplicadores de Lagrange. Este método computa un sistema de desigualdades llamado Condiciones de Karush–Kuhn–Tucker o condiciones de holguras complementarias, las cuales se usan entonces para calcular el óptimo.

Condiciones suficientes de optimalidad

Mientras la prueba de la primera derivada identifica los puntos que pueden ser extremos, esta prueba no distingue si un punto es mínimo, máximo, o ninguno de los dos. Cuando la función objetivo es dos veces diferenciable, estos casos pueden ser distinguidos estudiando la segunda derivada o la matriz de las segundas derivadas (llamada matriz Hessiana),en problemas irrestrictos, o la matriz de las segundas derivadas de la función objetivo y las restricciones llamada la matriz Hessiana orlada, en problemas restrictos.

Las condiciones que distinguen a los máximos, o mínimos, de otros puntos estacionarios son llamadas condiciones de segundo orden. Si un candidato a solución satisface las condiciones de primer orden y las condiciones de segundo orden también, es suficiente para establecer, al menos, optimalidad local.

Sensibilidad y continuidad del óptimo

El teorema de la envoltura describe como el valor de una solución óptima cambia cuando un parámetro subyacente cambia. El proceso que computa este cambio es llamado estática comparativa.

El teorema del máximo de Claude Berge (1963) describe la continuidad de una solución óptima como una función de parámetros subyacentes.

Cálculos de optimización

Para los problemas irrestrictos con funciones dos veces diferenciables, algunos puntos críticos pueden ser encontrados detectando los puntos donde el gradiente de la función objetivo es cero (es decir, los puntos estacionarios). De forma más general, un subgradiente cero certifica que un mínimo local ha sido encontrado para los problemas de minimización con funciones convexas u otras funciones de Lipschitz.

Además, los puntos críticos pueden ser clasificados usando la definitud de la matriz Hessiana: si es definida positiva en un punto crítico, entonces el punto es un mínimo local; si es definida negativa, entonces el punto es un máximo local; finalmente, si es indefinida, entonces el punto es algún tipo de punto de ensilladura.

Los problemas restrictos pueden con frecuencia ser transformados en problemas irrestrictos con ayuda de los multiplicadores de Lagrange. La relajación Lagrangiana puede también proveer soluciones aproximadas a difíciles problemas restrictos.

Cuando la función objetivo es convexa, entonces cualquier mínimo local será también un mínimo global. Existen técnicas numéricas eficientes para minimizar funciones convexas, por ejemplo los métodos de punto interior.

Técnicas de optimización computacional

Para resolver problemas, los investigadores pueden usar algoritmos que terminen en un número finito de pasos, o métodos iterativos que convergen a una solución (en alguna clase específica de problemas), o heurísticas que pueden proveer soluciones aproximadas a algunos problemas (aunque sus iteraciones no convergen necesariamente).

Algoritmos de optimización

Métodos iterativos

Los métodos iterativos usados para resolver problemas de programación no lineal difieren según lo que evalúen: Hessianas, gradientes, o solamente valores de función. Mientras que evaluando Hessianas (H) y gradientes (G) mejora la velocidad de convergencia, tales evaluaciones aumentan la complejidad computacional (o costo computacional) de cada iteración. En algunos casos, la complejidad computacional puede ser excesivamente alta.

Un importante criterio para los optimizadores es justo el número de evaluaciones de funciones requerido, como este con frecuencia es de por sí un gran esfuerzo computacional, usualmente mucho más esfuerzo que el del optimizador en sí, ya que en su mayoría tiene que operar sobre N variables. Las derivadas proveen información detallada para los optimizadores, pero son aún más costosas de calcular, por ejemplo aproximando el gradiente toma al menos N+1 evaluaciones de funciones. Para la aproximación de las segundas derivadas (agrupadas en la matriz Hessiana) el número de evaluaciones de funciones es de orden N². El método de Newton requiere las derivadas de Segundo orden, por lo tanto por cada iteración el número de llamadas a función es de orden N², pero para el optimizador de un gradiente puro más simple es de orden N. Sin embargo, los optimizadores de gradiente necesitan usualmente más iteraciones que el algoritmo de Newton. Ser mejor con respecto al número de llamadas a funciones depende del problema en sí.

  • Métodos que evalúan Hessianas (o aproximan Hessianas, usando diferencias finitas):
    • Método de Newton.
      • Programación secuencial cuadrática: un método de Newton basado en problemas restrictos de pequeña-mediana escala. Algunas versiones pueden manejar problemas de gran dimensión.
  • Métodos que evalúan gradientes o aproximan gradientes usando diferencias finitas (o incluso subgradientes):
    • Métodos Quasi-Newton: métodos iterativos para problemas medianos-grandes (ejemplo N<1000).
    • Métodos de gradiente conjugado: métodos iterativos para problemas grandes. (En teoría, estos métodos terminan en un número finito de pasos con funciones objetivo cuadráticas, pero esta terminación finita no se observa en la práctica en computadoras de precisión finita.)
    • Métodos de punto interior: esta es una gran clase de métodos para la optimización restricta. Algunos métodos de punto interior usan solamente información del subgradiente, y otros requieren la evaluación de las Hessianas.
    • Descenso del gradiente (alternativamente, descenso pronunciado o ascenso pronunciado): un método lento de interés teórico e histórico, el cual ha sido renovado para encontrar soluciones aproximadas de problemas enormes.
    • Método del subgradiente: un método iterativo para grandes funciones de Lipschitz localmente usando gradientes generalizados.
  • Métodos que evalúan solamente valores de funciones: si un problema es continuamente diferenciable, entonces los gradientes pueden ser aproximados usando diferencias finitas, en tal caso puede ser usado un método basado en gradiente.

Convergencia global

De modo general, si la función objetivo no es una función cuadrática, entonces muchos métodos de optimización usan otros métodos para garantizar que alguna subsecuencia de iteraciones converge a una solución óptima. El primer método popular que garantiza convergencia se apoya en búsquedas lineales, el cual optimiza una función en una dimensión. Un segundo y popularizado método para garantizar convergencia usa regiones de confianza. Ambos búsquedas lineales y regiones de confianza son usados en métodos modernos de optimización no diferenciable. Usualmente un optimizador global es mucho más lento que los optimizadores locales avanzados (por ejemplo BFGS), por lo tanto con frecuencia un optimizador global eficiente puede ser construido por el inicio del optimizador local de diferentes puntos de partida.

Heurísticas

Además de los algoritmos (terminación finita) y los métodos iterativos (convergentes), existen heurísticas que pueden proveer soluciones aproximadas a algunos problemas de optimización:

Véase también

Referencias

  1. "," Mathematical Programming Glossary, INFORMS Computing Society.
  2. W. Erwin Diewert (2008). "cost functions," The New Palgrave Dictionary of Economics, 2nd Edition Contents.
  3. Peter Newman (2008). "indirect utility function," The New Palgrave Dictionary of Economics, 2nd Edition. Contents.

Enlaces externos

  • COIN-OR—Computational Infrastructure for Operations Research
  • Decision Tree for Optimization Software Links to optimization source codes
  • Global optimization
  • Mathematical Programming Glossary
  • Mathematical Programming Society
  • currently being replaced by the NEOS Wiki (enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).
  • Optimization Online A repository for optimization e-prints
  • Optimization Related Links
  • EE364a: Course from Stanford University
  • Convex Optimization – Boyd and Vandenberghe Book on Convex Optimization
  •   Datos: Q141495
  •   Multimedia: Optimization

optimización, matemática, matemáticas, estadísticas, ciencias, empíricas, ciencia, computación, economía, optimización, matemática, bien, optimización, programación, matemática, selección, mejor, elemento, respecto, algún, criterio, conjunto, elementos, dispon. En matematicas estadisticas ciencias empiricas ciencia de la computacion o economia optimizacion matematica o bien optimizacion o programacion matematica es la seleccion del mejor elemento con respecto a algun criterio de un conjunto de elementos disponibles La investigacion operativa es uno de los campos de la matematica que sus bases son la optimizacion 1 Grafico de un paraboloide dado por f x y x y 4 El maximo global en 0 0 4 esta indicado por un punto rojo En el caso mas simple un problema de optimizacion consiste en maximizar o minimizar una funcion real eligiendo sistematicamente valores de entrada tomados de un conjunto permitido y computando el valor de la funcion La generalizacion de la teoria de la optimizacion y tecnicas para otras formulaciones comprende un area grande de las matematicas aplicadas De forma general la optimizacion incluye el descubrimiento de los mejores valores de alguna funcion objetivo dado un dominio definido incluyendo una variedad de diferentes tipos de funciones objetivo y diferentes tipos de dominios Optimizacion hace referencia a la accion y efecto de optimizar En terminos generales se refiere a la capacidad de hacer o resolver alguna cosa de la manera mas eficiente posible y en el mejor de los casos utilizando la menor cantidad de recursos En las ultimas decadas el termino optimizacion se ha vinculado al mundo de la informatica Sin embargo es un concepto que tambien se utiliza en las matematicas en la gestion de procesos y la economia Indice 1 Problemas de optimizacion 2 Notacion 2 1 Minimo y Maximo valor de una funcion 2 2 Argumentos de la entrada optima 3 Historia 4 Subcampos principales 5 Clasificacion de puntos criticos y extremos 5 1 Factibilidad del problema 5 2 Existencia 5 3 Condiciones necesarias de optimalidad 5 4 Condiciones suficientes de optimalidad 5 5 Sensibilidad y continuidad del optimo 5 6 Calculos de optimizacion 6 Tecnicas de optimizacion computacional 6 1 Algoritmos de optimizacion 6 2 Metodos iterativos 6 2 1 Convergencia global 6 3 Heuristicas 7 Vease tambien 8 Referencias 9 Enlaces externosProblemas de optimizacion EditarUn problema de optimizacion puede ser representado de la siguiente forma Dada una funcion f A displaystyle to R Buscar un elemento x0 en A tal que f x0 f x para todo x en A minimizacion o tal que f x0 f x para todo x en A maximizacion Tal formulacion es llamada un problema de optimizacion o un problema de programacion matematica un termino no directamente relacionado con la programacion de computadoras pero todavia en uso por ejemplo en la programacion lineal vease la seccion Historia Muchos problemas teoricos y del mundo real pueden ser modelados mediante este esquema general Problemas formulados usando esta tecnica en los campos de fisica y vision por computadora se refieren a la tecnica como minimizacion de la energia hablando del valor de la funcion f representando la energia del sistema que esta siendo modelado Tipicamente A es algun subconjunto del espacio euclideo Rn con frecuencia delimitado por un conjunto de restricciones igualdades o desigualdades que los elementos de A tienen que satisfacer El dominio A de f es llamado el espacio de busqueda o el conjunto de eleccion mientras que los elementos de A son llamados soluciones candidatas o soluciones factibles La funcion f es llamada diversamente funcion objetivo funcion de costo minimizacion 2 funcion de utilidad maximizacion funcion de utilidad indirecta minimizacion 3 o en ciertos campos funcion de energia o energia funcional Una solucion factible que minimice o maximice si este es el proposito la funcion objetivo es llamada una solucion optima Por convenio el formato estandar de un problema de optimizacion esta declarado en terminos de minimizacion Generalmente a menos que ambas la funcion objetivo y la region factible sean convexas en un problema de minimizacion puede haber varios minimos locales donde un minimo local x se define como un punto para el cual existe algun d gt 0 donde para todo x tal que x x d displaystyle mathbf x mathbf x star leq delta la expresion f x f x displaystyle f mathbf x star leq f mathbf x es verdadera es decir en alguna region alrededor de x todos los valores de la funcion son mayores que o iguales al valor en ese punto El maximo local se define de modo similar Un gran numero de algoritmos propuestos para resolver problemas no convexos incluyendo a la mayoria de los solucionadores disponibles comercialmente no son capaces de hacer una distincion entre soluciones optimas locales y soluciones optimas rigurosas y tratan a las primeras como soluciones actuales del problema original La rama de las matematicas aplicadas y el analisis numerico que se responsabiliza con el desarrollo de algoritmos deterministas que son capaces de garantizar convergencia en tiempo finito a la solucion optima real de un problema no convexo se llama optimizacion global Notacion EditarLos problemas de optimizacion se expresan a menudo con una notacion especial A continuacion se muestran algunos ejemplos Minimo y Maximo valor de una funcion Editar Considere la siguiente notacion min x R x 2 1 displaystyle min x in mathbb R x 2 1 Esta denota el valor minimo de la funcion objetivo x 2 1 displaystyle x 2 1 cuando x se selecciona del conjunto de numeros reales R displaystyle mathbb R El valor minimo en este caso es 1 displaystyle 1 y ocurre para x 0 displaystyle x 0 De modo similar la notacion max x R 2 x displaystyle max x in mathbb R 2x expresa el valor maximo de la funcion objetivo 2x siendo x cualquier numero real En este caso no existe tal maximo luego no hay un valor optimo acotado Argumentos de la entrada optima Editar Considerese la siguiente expresion a r g m i n x 1 x 2 1 displaystyle underset x in infty 1 operatorname arg min x 2 1 o de manera equivalente a r g m i n x x 2 1 sujeto a x 1 displaystyle underset x operatorname arg min x 2 1 text sujeto a x in infty 1 Esta representa el valor o valores del argumento de x en el intervalo 1 displaystyle infty 1 que minimizan o maximizan la funcion objetivo x2 1 y no el valor minimo que alcanza la funcion objetivo para dichos valores En este caso la respuesta es x 1 puesto que x 0 no es factible es decir no pertenece al dominio del problema De modo similar a r g m a x x 5 5 y R x cos y displaystyle underset x in 5 5 y in mathbb R operatorname arg max x cos y que equivalente a a r g m a x x y x cos y sujeto a x 5 5 y R displaystyle underset x y operatorname arg max x cos y text sujeto a x in 5 5 y in mathbb R representa al par o pares x y que minimizan o maximizan el valor de la funcion objetivo xcos y con la restriccion anadida de que x se encuentra en el intervalo 5 5 nuevamente el valor minimo de la funcion no importa En este caso las soluciones son los pares de la forma 5 2kp y 5 2k 1 p donde k recorre todos los enteros Arg min y arg max a veces aparecen escritos como argmin y argmax y quieren decir argumento del minimo y argumento del maximo Historia EditarPierre de Fermat y Joseph Louis Lagrange encontraron formulas basadas en el calculo para identificar valores optimos mientras que Isaac Newton y Carl Friedrich Gauss propusieron metodos iterativos para aproximar el optimo Historicamente el termino programacion lineal para referirse a ciertos problemas de optimizacion se debe a George B Dantzig aunque gran parte de la teoria habia sido introducida por Leonid Kantorovich en 1939 Dantzig publico el Algoritmo simplex en 1947 y John von Neumann desarrollo la teoria de la dualidad en el mismo ano El termino programacion en este contexto no se refiere a la programacion de computadoras Mas bien el termino viene del uso de programa por el ejercito de Estados Unidos al referirse a la propuesta de entrenamiento y planificacion logistica el cual fue el problema estudiado por Dantzig en aquel entonces Otros investigadores importantes en el campo de la optimizacion matematica fueron los siguientes cita requerida Richard Bellman Ronald A Howard Narendra Karmarkar William Karush Leonid Khachiyan Bernard Koopman Harold W Kuhn Joseph Louis Lagrange Laszlo Lovasz Arkadi Nemirovski Yurii Nesterov Boris Polyak Lev Pontryagin James Renegar R Tyrrell Rockafellar Cornelis Roos Naum Z Shor Michael J Todd Albert Tucker Michael Omar CunasSubcampos principales EditarProgramacion convexa estudia el caso en que la funcion objetivo es convexa minimizacion o concava maximizacion y el conjunto de restricciones es convexo Este puede ser visto como un caso particular de la programacion no lineal o como la generalizacion de la programacion lineal o de la convexa cuadratica Programacion lineal PL es un tipo de programacion convexa en el que la funcion objetivo f es lineal y el conjunto de restricciones se especifica usando solamente ecuaciones e inecuaciones lineales Dicho conjunto es llamado poliedro o politopo si esta acotado Programacion conica es una forma general de la programacion convexa PL PCSO y PSD pueden todos ser vistos como programas conicos con el tipo de cono apropiado Programacion de cono de segundo orden PCSO es un tipo de programacion convexa e incluye ciertos tipos de problemas de programacion cuadratica Programacion semidefinida PSD es un subcampo de la optimizacion convexa donde las variables fundamentales son matrices semidefinidas Es una generalizacion de la programacion lineal y la programacion cuadratica convexa Programacion geometrica es una tecnica por medio de la cual el objetivo y las restricciones de desigualdad expresados como polinomios y las restricciones de igualdad como monomios pueden ser transformados en un programa convexo Programacion con enteros o Programacion entera estudia programas lineales en los cuales algunas o todas las variables estan obligadas a tomar valores enteros Esta no es convexa y en general es mucho mas compleja que la programacion lineal regular Programacion cuadratica permite a la funcion objetivo tener terminos cuadraticos mientras que el conjunto factible puede ser especificado con ecuaciones e inecuaciones lineales Para formas especificas del termino cuadratico esta es un tipo de programacion convexa Programacion fraccionaria estudia la optimizacion de razones de dos funciones no lineales La clase especial de programas fraccionarios concavos puede ser transformada a un problema de optimizacion convexa Programacion no lineal estudia el caso general en el que la funcion objetivo o las restricciones o ambos contienen partes no lineales Este puede o no ser un programa convexo En general si el programa es convexo afecta la dificultad de resolucion Programacion estocastica u Optimizacion estocastica estudia el caso en el que alguna de las restricciones o parametros depende de variables aleatorias Programacion robusta como la programacion estocastica es un intento por capturar la incertidumbre en los datos fundamentales del problema de optimizacion Esto se hace mediante el uso de variables aleatorias pero en cambio el problema es resuelto teniendo en cuenta imprecisiones en los datos de entrada Optimizacion combinatoria se preocupa de los problemas donde el conjunto de soluciones factibles es discreto o puede ser reducido a uno Optimizacion dimensional infinita estudia el caso donde el conjunto de soluciones factibles es un subconjunto de un espacio de dimension infinita por ejemplo un espacio de funciones Heuristicas y Metaheuristicas hacen suposiciones sobre el problema que esta siendo optimizado Usualmente las heuristicas no garantizan que cualquier solucion optima sea encontrada Luego las heuristicas son usadas para encontrar soluciones aproximadas para muchos problemas de optimizacion complicados Satisfaccion de restriccion estudia el caso en el cual la funcion objetivo f es constante esta es usada en inteligencia artificial particularmente en razonamiento automatizado Programacion disyuntiva se usa cuando al menos una restriccion puede ser satisfecha pero no todas Esta es de uso particular en la programacion en un numero de subcampos Las tecnicas son disenadas principalmente para la optimizacion en contextos dinamicos es decir toma de decisiones con el transcurso del tiempo Calculo de variaciones busca optimizar un objetivo definido sobre muchos puntos con el tiempo considerando como la funcion objetivo cambia si el cambio es pequeno en el camino de eleccion La tecnica del control optimo es una generalizacion de este Programacion dinamica estudia el caso en el que la estrategia de optimizacion se basa en la division del problema en subproblemas mas pequenos La ecuacion que describe la relacion entre estos subproblemas se llama ecuacion de Bellman Programacion matematica con restricciones de equilibrio es donde las restricciones incluyen desigualdades variables o complementarias Clasificacion de puntos criticos y extremos EditarFactibilidad del problema Editar La solubilidad del problema tambien llamada factibilidad del problema es la cuestion de si existe alguna solucion factible al margen de su valor objetivo Este puede ser considerado como el caso especial de la optimizacion matematica donde el valor objetivo es el mismo para toda solucion y asi cualquier solucion es optima Muchos algoritmos de optimizacion necesitan comenzar a partir de un punto factible Una via para obtener tal punto es relajar las condiciones de factibilidad usando una variable de holgura con suficiente holgura cualquier punto de partida es factible Entonces se minimiza esa variable de holgura hasta que la holgura sea nula o negativa Existencia Editar El teorema de Weierstrass afirma que una funcion real y continua en un conjunto compacto alcanza su valor maximo y minimo De forma mas general una funcion semi continua inferior en un conjunto compacto alcanza su minimo una funcion semi continua superior en un conjunto compacto alcanza su maximo Condiciones necesarias de optimalidad Editar Uno de los teoremas de Fermat asegura que los optimos de los problemas irrestrictos son encontrados en los puntos estacionarios donde la primera derivada de la funcion objetivo es cero o su gradiente nulo De forma mas general tambien pueden ser encontrados en los puntos criticos donde la primera derivada o el gradiente de la funcion objetivo no esta definido o en la frontera del conjunto de eleccion Una ecuacion o conjunto de ecuaciones indicando que la s primera s derivada s es son igual es a cero en un optimo interior se llama una condicion de primer orden o un conjunto de condiciones de primer orden Los optimos de los problemas con restricciones de desigualdad son en cambio encontrados mediante el metodo de los multiplicadores de Lagrange Este metodo computa un sistema de desigualdades llamado Condiciones de Karush Kuhn Tucker o condiciones de holguras complementarias las cuales se usan entonces para calcular el optimo Condiciones suficientes de optimalidad Editar Mientras la prueba de la primera derivada identifica los puntos que pueden ser extremos esta prueba no distingue si un punto es minimo maximo o ninguno de los dos Cuando la funcion objetivo es dos veces diferenciable estos casos pueden ser distinguidos estudiando la segunda derivada o la matriz de las segundas derivadas llamada matriz Hessiana en problemas irrestrictos o la matriz de las segundas derivadas de la funcion objetivo y las restricciones llamada la matriz Hessiana orlada en problemas restrictos Las condiciones que distinguen a los maximos o minimos de otros puntos estacionarios son llamadas condiciones de segundo orden Si un candidato a solucion satisface las condiciones de primer orden y las condiciones de segundo orden tambien es suficiente para establecer al menos optimalidad local Sensibilidad y continuidad del optimo Editar El teorema de la envoltura describe como el valor de una solucion optima cambia cuando un parametro subyacente cambia El proceso que computa este cambio es llamado estatica comparativa El teorema del maximo de Claude Berge 1963 describe la continuidad de una solucion optima como una funcion de parametros subyacentes Calculos de optimizacion Editar Para los problemas irrestrictos con funciones dos veces diferenciables algunos puntos criticos pueden ser encontrados detectando los puntos donde el gradiente de la funcion objetivo es cero es decir los puntos estacionarios De forma mas general un subgradiente cero certifica que un minimo local ha sido encontrado para los problemas de minimizacion con funciones convexas u otras funciones de Lipschitz Ademas los puntos criticos pueden ser clasificados usando la definitud de la matriz Hessiana si es definida positiva en un punto critico entonces el punto es un minimo local si es definida negativa entonces el punto es un maximo local finalmente si es indefinida entonces el punto es algun tipo de punto de ensilladura Los problemas restrictos pueden con frecuencia ser transformados en problemas irrestrictos con ayuda de los multiplicadores de Lagrange La relajacion Lagrangiana puede tambien proveer soluciones aproximadas a dificiles problemas restrictos Cuando la funcion objetivo es convexa entonces cualquier minimo local sera tambien un minimo global Existen tecnicas numericas eficientes para minimizar funciones convexas por ejemplo los metodos de punto interior Tecnicas de optimizacion computacional EditarPara resolver problemas los investigadores pueden usar algoritmos que terminen en un numero finito de pasos o metodos iterativos que convergen a una solucion en alguna clase especifica de problemas o heuristicas que pueden proveer soluciones aproximadas a algunos problemas aunque sus iteraciones no convergen necesariamente Algoritmos de optimizacion Editar Algoritmo Simplex de George Dantzig disenado para la programacion lineal Extensiones del algoritmo Simplex disenados para la programacion cuadratica y para la programacion lineal fraccionaria Variantes del algoritmo Simplex que son especialmente apropiadas para la optimizacion de redes Algoritmos combinatorios Metodos iterativos Editar Los metodos iterativos usados para resolver problemas de programacion no lineal difieren segun lo que evaluen Hessianas gradientes o solamente valores de funcion Mientras que evaluando Hessianas H y gradientes G mejora la velocidad de convergencia tales evaluaciones aumentan la complejidad computacional o costo computacional de cada iteracion En algunos casos la complejidad computacional puede ser excesivamente alta Un importante criterio para los optimizadores es justo el numero de evaluaciones de funciones requerido como este con frecuencia es de por si un gran esfuerzo computacional usualmente mucho mas esfuerzo que el del optimizador en si ya que en su mayoria tiene que operar sobre N variables Las derivadas proveen informacion detallada para los optimizadores pero son aun mas costosas de calcular por ejemplo aproximando el gradiente toma al menos N 1 evaluaciones de funciones Para la aproximacion de las segundas derivadas agrupadas en la matriz Hessiana el numero de evaluaciones de funciones es de orden N El metodo de Newton requiere las derivadas de Segundo orden por lo tanto por cada iteracion el numero de llamadas a funcion es de orden N pero para el optimizador de un gradiente puro mas simple es de orden N Sin embargo los optimizadores de gradiente necesitan usualmente mas iteraciones que el algoritmo de Newton Ser mejor con respecto al numero de llamadas a funciones depende del problema en si Metodos que evaluan Hessianas o aproximan Hessianas usando diferencias finitas Metodo de Newton Programacion secuencial cuadratica un metodo de Newton basado en problemas restrictos de pequena mediana escala Algunas versiones pueden manejar problemas de gran dimension Metodos que evaluan gradientes o aproximan gradientes usando diferencias finitas o incluso subgradientes Metodos Quasi Newton metodos iterativos para problemas medianos grandes ejemplo N lt 1000 Metodos de gradiente conjugado metodos iterativos para problemas grandes En teoria estos metodos terminan en un numero finito de pasos con funciones objetivo cuadraticas pero esta terminacion finita no se observa en la practica en computadoras de precision finita Metodos de punto interior esta es una gran clase de metodos para la optimizacion restricta Algunos metodos de punto interior usan solamente informacion del subgradiente y otros requieren la evaluacion de las Hessianas Descenso del gradiente alternativamente descenso pronunciado o ascenso pronunciado un metodo lento de interes teorico e historico el cual ha sido renovado para encontrar soluciones aproximadas de problemas enormes Metodo del subgradiente un metodo iterativo para grandes funciones de Lipschitz localmente usando gradientes generalizados Metodos que evaluan solamente valores de funciones si un problema es continuamente diferenciable entonces los gradientes pueden ser aproximados usando diferencias finitas en tal caso puede ser usado un metodo basado en gradiente Metodos de interpolacion Metodos de busqueda de patrones los cuales tienen mejores propiedades de convergencia que la heuristica de Nelder Mead Convergencia global Editar De modo general si la funcion objetivo no es una funcion cuadratica entonces muchos metodos de optimizacion usan otros metodos para garantizar que alguna subsecuencia de iteraciones converge a una solucion optima El primer metodo popular que garantiza convergencia se apoya en busquedas lineales el cual optimiza una funcion en una dimension Un segundo y popularizado metodo para garantizar convergencia usa regiones de confianza Ambos busquedas lineales y regiones de confianza son usados en metodos modernos de optimizacion no diferenciable Usualmente un optimizador global es mucho mas lento que los optimizadores locales avanzados por ejemplo BFGS por lo tanto con frecuencia un optimizador global eficiente puede ser construido por el inicio del optimizador local de diferentes puntos de partida Heuristicas Editar Ademas de los algoritmos terminacion finita y los metodos iterativos convergentes existen heuristicas que pueden proveer soluciones aproximadas a algunos problemas de optimizacion Evolucion diferencial Algoritmo de busqueda diferencial Relajacion Dinamica Algoritmos geneticos Ascenso de montanas Nelder Mead una heuristica popular por aproximar la minimizacion sin llamadas a gradientes Optimizacion por enjambre de particulas Optimizacion artificial de la colonia de abejas Vease tambien EditarOptimizacion multiobjetivo Eficiencia de Pareto Multiplicadores de LagrangeReferencias Editar The Nature of Mathematical Programming Mathematical Programming Glossary INFORMS Computing Society W Erwin Diewert 2008 cost functions The New Palgrave Dictionary of Economics 2nd Edition Contents Peter Newman 2008 indirect utility function The New Palgrave Dictionary of Economics 2nd Edition Contents Enlaces externos EditarCOIN OR Computational Infrastructure for Operations Research Decision Tree for Optimization Software Links to optimization source codes Global optimization Mathematical Programming Glossary Mathematical Programming Society NEOS Guide currently being replaced by the NEOS Wiki enlace roto disponible en Internet Archive vease el historial la primera version y la ultima Optimization Online A repository for optimization e prints Optimization Related Links Convex Optimization I EE364a Course from Stanford University Convex Optimization Boyd and Vandenberghe Book on Convex Optimization Datos Q141495 Multimedia Optimization Obtenido de https es wikipedia org w index php title Optimizacion matematica amp oldid 136294314, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos