А–блок расчет коэффициентов частных описаний на обучающей выборке А

Вблок:выбор лучших частных описаний по внешнему критерию ( ошибке моделей на проверочной В выборке данных)

р–количество частичных описаний, генерируемых на каждом ряду

F– показатель свободы принятия решений

К – количество рядов селекции

- модель оптимальной сложности.

Работа многорядного алгоритма МГУА

Генератор генерирует некоторое множество моделей претендентов по некоторому правилу, например, сочетая входные переменные по две , и формируя из них например, квадратичную форму. Тогда на выходе Г имеем квадратичных форм (моделей претендентов). Для каждой из них на множестве А ищутся наилучшие оценки вектора параметров. Т.о. на выходе блока А имеем моделей претендентов

.

В блоке Вкаждая из них оценивается на проверочной выборкеВ –и некоторая часть моделей– F штукпропускается дальше в следующий идентичный ряд (этап) алгоритма.

Качество модели оценивают ошибкой на В (и на совокупной W=A+B) по формуле нормированной относительной среднеквадратической ошибки: и . Далее для следующего ряда селекции (ГАВ) роль входных переменных Х играют отобранные F штук (свобода выбора)моделейу.

Синтезпродолжается до тех пор пока уменьшается ошибка на В-

Если выборки А и В достаточно велики и представительны, то ошибка на В может стабилизироваться , - в данном случае разница между качеством алгоритмов размывается - все алгоритмы и МИМ и АШР дадут приблизительно одинаковое качество (без шума)

Если выборки малы - и данные зашумлены – то, как правило будем иметь выраженный минимум критерия ошибки наВ.

Что и необходимо для преодоления множественности решений,

Здесь выбирается

-не истинная модель ( как ее получить при неизвестных параметрах шума?)

- и не модель, получаемую АШР на всех точках в обучении. Вот тут конечно мы получим минимальную ошибку на всей выборке W, потому что модель подстроится под шум в рамках предоставленного уровня значимости.

- а модель оптимальной сложности – она более проста чем модель с истинной структурой и более проста и менее точна, чем модель полученная АШР на всех точках.

НО как правило имеет лучше ошибки на выборках С –экзамене. (потому что мы структуру модели настраиваем на свежих точках В, и поскольку В и С принадлежат одной генеральной совокупности возможно ожидать ее структурной настроенности и на другие свежие точки С).

То есть, проигрывая на точках В(не включая их в А)мы получаем лучшие ошибки на С.

Как видим этот исторически первый “многорядный алгоритм” не очень удачен так как допускает скачки сложности-2-4-8…..

Гораздо удачнее алгоритм с которым мы познакомились на практических занятиях, его название- релаксационный итерационный алгоритм – РИА МГУА

Основополагающие принципы МГУА

Рассматриваемая система алгоритмов (алгоритмических отображений) базируется на фундаментальных принципах самоорганизации, таких как эволюция, скрещивание, мутация, селекция, свобода выбора.



(биологически инспирированная когнитивная архитектура)

Присутствие некоторых из них очевидно (эволюция, скрещивание, селекция) некоторые для простоты далее не указаны (мутация).

Рассмотрим наиболее важные из них

Принцип неокончательности решения и свободы выбора

(принцип Д.Габора)

В различных реализациях МГУА МИМ используются следующие возможности:

1.На каждый последующий ряд пропускается не одно а несколько лучших решений.

Кроме того

-для избегания вырождения процесса используются случайные скрещивания с элементами предыдущих рядов и

- ограниченные мутации выживших элементов

Отбор по выживаемости в процессе эволюции

– алгоритм реализует (блок В) отбор структур - уже готовых, настроенных на новых условиях, которые встречает модель(точки В). .

Эти модели запускаются в дальнейшую эволюцию. Но что получается в результате? На фиксированном множестве данных решение дается

следующим утверждением




473554824.html
474554824.html
47554824.html
475554824.html
476554824.html
    PR.RU™