Результаты поиска
Перейти к навигации
Перейти к поиску
- ...|Гаусса]]''' — прямой метод решения [[задача оптимизации|задач многомерной оптимизации]]. ...все предыдущие значения координат, вычисленные на той же итерации, в этом и состоит схожесть с [[метод Гаусса|одноимённым методом]] решения [[СЛАУ]]. ...4 КБ (124 слова) - 13:35, 14 июня 2023
- ...я минимального значения [[Функция (математика)|функции]] ([[функционал]]а) и задачи отыскания элемента, на котором функция принимает минимальное значени ...производные, например, [[Градиентный спуск|метод градиентного спуска]]), и алгоритмы с использованием производных высших порядков. ...3 КБ (88 слов) - 18:56, 20 декабря 2022
- ...ния, [[Аппроксимация|аппроксимирующих]] данную [[Задача оптимизации|задачу оптимизации]]. Для оптимизационных задач без [[Ограниченное числовое множество|ограниче где <math>\lambda</math> и <math>\sigma</math> — [[множители Лагранжа]]. ...3 КБ (160 слов) - 16:54, 29 мая 2019
- ...ом прямого метода условной одномерной пассивной [[Оптимизация (математика)|оптимизации]]. И [[задача оптимизации]] выглядит так: <math>f(x)\to\min_{x\in [a,\;b]}</math>. ...5 КБ (183 слова) - 11:17, 20 мая 2021
- ...еского факультета по курсу “Методы оптимизации” «Линейное программирование и смежные вопросы»|ссылка= |викитека= |ответственный= |издание= |место= Росто {{Методы оптимизации}} ...3 КБ (130 слов) - 10:05, 30 декабря 2019
- ...курентен с передовыми [[Эволюционные алгоритмы|эволюционными алгоритмами]] и обладает следующими свойствами [[Инвариантность|инвариантности]]: ...расширения метода координатного спуска (c) для решения неразделимых задач оптимизации (d). ...7 КБ (193 слова) - 22:25, 2 октября 2024
- ...nno algorithm}}) — итерационный метод [[оптимизация (математика)|численной оптимизации]], предназначенный для нахождения локального максимума/минимума нелинейного BFGS — один из наиболее широко применяемых [[квазиньютоновские методы|квазиньютоновских методов]]. В квазиньютоновских методах не вычисляется нап ...6 КБ (307 слов) - 11:48, 1 мая 2024
- '''Градие́нтные ме́тоды''' — [[численные методы]] итерационного приближения к [[экстремум|экстремумам]] функции вдоль её [[ ...ния системы уравнений в терминах [[Математическое программирование|методов оптимизации]] == ...12 КБ (676 слов) - 08:45, 27 декабря 2024
- ...венно на значения функции. Алгоритм делится на две фазы: исследующий поиск и поиск по образцу. ...танут меньше соответствующих значений e<sub>i</sub>, алгоритм завершается, и точка 1 признаётся точкой минимума. ...6 КБ (133 слова) - 09:11, 18 апреля 2023
- ...множеств. Разработан [[Немировский, Аркадий Семёнович|А. С. Немировским]] и доведён до алгоритмической реализации [[Хачиян, Леонид Генрихович|Л. Г. Хач ...образом, объём эллипсоида уменьшается экспоненциально с ростом числа шагов и искомая точка будет найдена за <math>O(n^2\log(V_1/V_2))</math> шагов, где ...7 КБ (151 слово) - 23:29, 25 апреля 2021
- ...горитмов]] оптимизации (то есть работает с использованием случайных чисел) и использующий некоторые идеи [[Генетический алгоритм|генетических алгоритмов ...альных экстремумов) функций от многих переменных. Метод прост в реализации и использовании (содержит мало управляющих параметров, требующих подбора), ле ...7 КБ (294 слова) - 08:52, 25 июня 2022
- ...ов для решения оптимизационных задач в области [[Информатика|информатики]] и [[Исследование операций|исследования операций]]. Относится к категории [[Ме ...рабочие пчелы-фуражиры (кроме них, в колонии существуют [[Трутень|трутни]] и [[Пчелиная матка|матка]], не участвующие в процессе сбора нектара). ...7 КБ (181 слово) - 12:08, 2 сентября 2022
- ...тельные методы|вычислительных методов]] решения [[задача оптимизации|задач оптимизации]]. Впервые представлен [[Кифер, Джек|Джеком Кифером]] в 1953 году. ...ечения в обоих направлениях, то есть выбираются две точки <math>x_1</math> и <math>x_2</math> такие, что: ...10 КБ (384 слова) - 08:26, 15 августа 2023
- ...]], заданной на [[Компактное пространство | компакте]]. Прост в реализации и имеет достаточно простые условия сходимости. Подходит для широкого класса ф ...вое испытание функции <math>f_{i+1}</math>, корректируя при этом миноранту и текущую оценку глобального минимума. Испытания проводятся в точке минимума ...5 КБ (290 слов) - 22:47, 31 января 2018
- '''Квазиньютоновские методы''' — методы [[оптимизация (математика)|оптимизации]], основанные на накоплении информации о [[кривизна|кривизне]] [[целевая фу ...k</math> определяется следующее направление поиска <math>\vec{p}_k</math>, и матрица <math>B</math> обновляется с учётом вновь полученной информации о к ...8 КБ (619 слов) - 01:41, 7 июня 2021
- [[Файл:29th_Infantry_Division_SSI.svg|thumb|Дихотомия [[Инь и Ян]]]] ...] является способом образования [[подраздел]]ов одного понятия или термина и служит для образования классификации элементов. ...11 КБ (145 слов) - 20:13, 31 августа 2024
- ...Нелдера-Мида для [[Функция Розенброка|функции Розенброка]] '''(вверху)''' и [[Функция Химмельблау|функции Химмельблау]]''' (внизу)<br /> ...Симплекс-метод|симплекс-методом]]» из линейного программирования — методом оптимизации линейной системы с ограничениями.'' ...9 КБ (424 слова) - 18:01, 30 октября 2024
- ...тимизации, особенно дискретной и [[комбинаторная оптимизация|комбинаторной оптимизации]]. Один из примеров [[Метод Монте-Карло|методов Монте-Карло]]. ...тации отжига. Стандартные градиентные методы ([[Метод наискорейшего спуска|методы спуска]]) в данном случае неприменимы, поскольку имеется множество [[Локаль ...10 КБ (223 слова) - 10:29, 10 июня 2022
- ...ижения вдоль [[градиент]]а, один из основных численных методов современной оптимизации. ...ые задачи и т. д.). Метод градиентного спуска можно использовать для задач оптимизации в бесконечномерных пространствах, например, для численного решения задач оп ...17 КБ (422 слова) - 08:44, 27 декабря 2024
- ...значной статьи. Удалите кто-нибудь этот комментарий после доведения ссылок и статей до ума!--> .... п. На данный момент все современные системы проектирования имеют сложные и эффективные системы автоматической трассировки; ...10 КБ (47 слов) - 13:15, 8 мая 2021