Иностранная математика. Серия 6. Фотокопия. Численная оптимизация. Численная оптимизация. Старшие студенты по специальности «математика». Исследование операций. Прикладная математика и книги для аспирантов по другим смежным специальностям.

Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.
Описание товара
- Информация о товаре
- Фотографии

E1
Пресса: Science Press
ISBN: 9787030166753
Издание: 1
Код товара: 11928475
Бренд: Science Press
Упаковка: твердый переплет
Название серии: Серия классической зарубежной математики (фотокопия)
Иностранное название: Численная оптимизация
Открыто: 16
Время публикации: 2006-01-01
Бумага: пластическая версия бумага
Номер: 636
Слова: 779000
Неудачный текст: китайский


Автор этой книги в настоящее время является профессором Северо-Западного университета в США, а также главным редактором и заместителем главного редактора различных международных журналов.Автор опирается на свой опыт преподавания, исследований и консультирования, чтобы написать книгу, подходящую как для студентов, так и для практиков.В этой книге представлен новый всеобъемлющий подход к наиболее эффективным методам непрерывной оптимизации.Каждая глава начинается с основных понятий и развивается через доступные в настоящее время технологии.
В этой книге особое внимание уделяется практическим методам и содержится большое количество иллюстраций и упражнений. Подходит для широкого круга читателей. Его можно использовать в качестве учебника для аспирантов инженерных специальностей, исследований операций, математики, информатики и бизнеса, а также в качестве пособия для исследователей и практиков в этой области.
Короче говоря, автор стремится сделать эту книгу легко читаемой, богатой по содержанию, строгой в обсуждении и способной раскрыть практическую ценность числовых значений.


Preface
1 Introduction
Mathematical Formulation
Пример: транспортная задача
Непрерывная и дискретная оптимизация
Ограниченная и неограниченная оптимизация
Global and Local Optimization
Стохастическая и детерминированная оптимизация
Optimization Algorithms
Conveity
tes and References
2 основы неограниченной оптимизации
2.1 Что такое решение?
Recognizing a Local Minimum
nsmooth Problems
2.2 Обзор алгоритмов
Две стратегии: линейный поиск и доверительная область
Направления поиска для методов линейного поиска
Models for Trust—Region Methods
Scaling
Rates of Convergence
R—Rates of Convergence
tes and References
Eercises
3 Line Search Methods
3.1 Длина шага
The Wolfe Conditions
The Goldstein Conditions
Sufficient Decrease and Backtracking
3.2 Сближение методов линейного поиска
3.3 Скорость конвергенции
Convergence Rate of Steepest Descent
Quasi—Newton Methods
Newton's Method
Coordinate Descent Methods
3.4 шага—Length Selection Algorithms
Interpolation
The Initial Step Length
Алгоритм поиска линии для условий Вульфа
tes and References
Eerases
4 Trust—Region Methods
Outline of the Algorithm
4.1 Точка Коши и связанные с ней алгоритмы
The Cauchy Point
Improving on the Cauchy Point
The DoglegMethod
Two—Dimensional Subspace Minimization
Steihaug's Approach
4.2. Использование почти реальных решений подзадачи
Characterizing Eact Solutions
Calculating Nearly Eact Solutions
The Hard Case
Доказательство теоремы 4.3.
4.3 Глобальная конвергенция
Reduction Obtained by the Cauchy Point
Convergence to Stationary Points
Сходимость алгоритмов на основе почти реальных решений
4.4 Другие улучшения
Scaling
n—Euclidean Trust Regions
tes and References
Eercises
5 Conjugate Gradient Methods
5.1. Метод линейного сопряженного градиента
Conjugate Direction Methods
Основные свойства метода сопряженных градиентов
Практическая форма метода сопряженных градиентов
Rate of Convergence
Preconditioning
Practical Preconditioners
5.2. Методы линейного сопряженного градиента
The Fletcher—Reeves Method
The Polak—Ribiere Method
Quadratic Termination and Restarts
Numerical Performance
Behavior of the Fletcher—Reeves Method
Global Convergence
tes and References
Eerases
6 Practical Newton Methods
6.1 Неточные шаги Ньютона
6.2 Методы Ньютона для линейного поиска
Line Search Newton—CG Method
Modified Newton's Method
6.3 Гессенские модификации
Eigenvalue Modification
Adding a Multiple of the Identity
Modified Cholesky Factorization
Gershgorin Modification
Модифицированная симметричная неопределенная факторизация
6.4 Доверие—Region Newton Methods
Newton—Dogleg and Subspace—Minimization Methods
Accurate Solution of the Trust—Region Problem
Trust—Region Newton—CG Method
Preconditioning the Newton—CG Method
Local Convergence of Trust—Region Newton Methods
tes and References
Eerases
7 Calculating Derivatives
7.1 Конечный—Difference Derivative Approimations
Approimating the Gradient
Approimating a Sparse Jacobian
Approimatingthe Hessian
Approimating a Sparse Hessian
7.2 Автоматическая дифференциация
An Eample
The Forward Mode
The Reverse Mode
Векторные функции и частичная разделимость
Вычисление якобианов векторных функций
Вычисление гессианов: прямой режим
Расчет гессиана: обратный режим
Current Limitations
tes and References
Eercises
8 Quasi—Newton Methods
8.1. Метод BFGS.
Properties ofthe BFGS Method
Implementation
8.2 Метод SR1
Properties of SRl Updating
8.3 Класс Бройдена
Properties ofthe Broyden Class
8.4 Анализ конвергенции
Global Convergence ofthe BFGS Method
Superlinear Convergence of BFGS
Convergence Analysis of the SR1 Method
tes and References
Eercises
9 Large—Scale Quasi—Ньютон и частично разделимая оптимизация
9.1 Ограниченный—Memory BFGS
Связь с методами сопряженных градиентов
9,2 Дженерал Лимитед—Memory Updating
Компактное представление обновления BFGS
SR1 Matrices
Unrolling the Update
9.3 Разреженный квази—Newton Updates
9.4 Частично разделимые функции
A Simple Eample
Internal Variables
9.5.Инвариантные подпространства и частичная отделимость
Разреженность против частичной разделимости
Group Partial Separability
9.6 Алгоритмы для частично разделимых функций
Использование частичной разделимости в методе Ньютона
Quasi—Методы Ньютона для частично разделимых функций
tes and References
Eercises
……
10 nlinear Least—Squares Problems
11 nlinear Equations
12 Theory of Constrained Optimization
Глава 13. Линейное программирование: простой метод
14 Линейное программирование: Интерьер—Point Methods
15 основ алгоритмов нелинейной оптимизации с ограничениями
16 Quadratic Programnung
17 Штрафные, барьерные и расширенные методы Лагранжа
18 Sequential Quadratic Programming
A Background Material
References
Inde

