d9e5a92d

Некоторые обобщения

Модель 8.5.
О. Рассмотрим систему, состоящую из n взаимосвязанных элементов, функционирующих в дискретном времени. Состояние
системы в момент времени к: sk = (s1k, s\, ..., sk) e W с Жn определяется состояниями элементов sk e Wi, k = 1, 2, ... , где
? si s+ +?, i = 1, n .
Г. Предположим, что поведение системы удовлетворяет гипотезе индикаторного поведения - в каждый момент времени каждый из элементов изменяет свое состояние в направлении текущего положения цели, т.е. описывается итерационной процедурой типа
(8.5) sf+1
sk ], к = 1, 2, ... , i
Si + gk [Wi( S- )1, n.
где Wj( s-) - текущее положение цели i-го элемента, зависящее от
состоянии остальных элементов, а параметры
g = (у1 , УІ ¦¦¦, Ук„), выбираемые элементами, определяют величины шагов (скорость научения) и имеют произвольные распределения в единичном кубе.
? Предположим, что точка равновесия системы
c = (cj, c2, cn), c, e [s-; s+ ], i = 1,n, существует, единственна и траектории (8.5) сходятся к этой точке (соответствующие условия приведены, например, в [52, 65]).
В качестве меры текущей удаленности системы от положения равновесия выберем рассогласование (8.6) D = ||c- sk|| = -?|c, -sfj
,=1
т.е. расстояние между точками s и c в пространстве Шп. Ф. Воспользовавшись (8.5), получим:
(8.7) A^1 = -?j(c, -sk)(1 -yk) + yk(c, -w,(sk))j
n ,=\
Очевидно: Ak+1 Ak+1, где
(8.8) A;1 = - X j c, - sk |(1 - yk) + 11 yk | c, - w, (sk )j.
n ,=1 n ,=1
При достаточно больших n оценка рассогласования Ak должна слабо отличаться от среднего значения (8.9) A;1 = (1 - ykn) Ak„ + Укп -Xjc, -w,(sk)j,
n i=1
_ 1 n
где yn = rZ y{ . Приведем корректную формулировку и обос-
i=1
нование этого утверждения. Определим, что понимается под близостью Akn+1 и A+1 . В соответствии с [60, 64], последовательность функций Akn+1 (gk) стабилизируется на единичных кубах Kn = \0;Г\п, если существует такая числовая последовательность АП+1, что
(8.10) Pr {| Akn+1 - А+11 е} 0, п ® +?
для любого наперед заданного е 0.
Для того, чтобы судить о стабилизации, оценим разность значений функции Akn+1 (- ) в следующих точках: gk е Кп и S = (Sk S2..... Sп ) е К,:|Ak, (/) - Akn (Sk)| = |i - sfl(S; - gk)
n ,=1
+ - z (gk - sk )i c - w (sk )||.
n ,=11
Обозначив a = max (sk - st ), получим 2a
n
|Akn (gk) - Akn (Sk)|
Z|g‘ - s',г
, = 1
т.е. Akn (- ) является липшицевой функцией с постоянной Липшица порядка Г / n.
В силу теоремы 2 [64], для любых распределений на Kn дисперсия D{ Akn } ® 0, n ® +?, следовательно, по неравенству Чебышева выполняется (8.10).
В. Стабилизация последовательности Acn позволяет сформулировать следующий вывод. С ростом числа элементов системы оценка (8.8) рассогласования (8.6) сходится по вероятности к (8.9), т.е. имеет место:
1n
(8.11) Pr {Akn+1 (Г - gkn) Akn + gkn-Z\cl - W (sk )|} 0.
n n-+?
, =1
Некоторые частные случаи приведенного утверждения рассмотрены ниже:
- если система монотонно движется к положению равновесия (если sk с,, то sk Wj(sk) c, и, соответственно, если sk с,, то sk ?wj(sk) ? c, i = 1,n, k = 1, 2, ...), то (8.7) сходится по вероятности к (8.9);
- если элементы системы не взаимодействуют или существует 5 0: |c - wi(sk)\ ~ o(nd), i = 1, n, k = 1, 2, ... , то (8.7) сходится по вероятности к (1 - f'k) Dkn . ?
А. Исследование модели позволяет сделать следующий качественный вывод: если
- элементы не взаимодействуют, или
- положения цели не меняются со временем (например, Wj = Cj), или
- среднее изменение положений цели относительно точек равновесия для каждого элемента на каждом шаге достаточно мало:
|Cj - Wj(sk)| |Cj - si | i = \n, k = 1, 2, ... ,
то среднее рассогласование достаточно точно может быть аппроксимировано экспоненциальной кривой.
Существенным в настоящей модели является допущение о справедливости гипотезы индикаторного поведения и выбор рассогласования в виде (8.6). Более того, предположение о стационарности положений цели, фактически, сводит рассматриваемую модель к модели 4.1. -
В моделях коллективного поведения замедленноасимптотический характер КН является следствием либо большого числа элементов системы, либо/и отсутствия или ограниченности их взаимодействия, либо/и постоянства положений цели.

Некоторые обобщения

Как уже неоднократно отмечалось выше, итеративное научение характеризуется постоянством внешних условий и целей научения, то есть имеет место стационарность внешних (по отношению к обучаемой системе) параметров (условий функционирования). Покажем, что для объяснения замедленноасимптотического (экспоненциального) характера кривых итеративного научения достаточно ввести предположение о стационарности некоторых параметров самой обучаемой системы (внутренних условий функционирования).



Более того, этого предположения достаточно для объяснения гораздо более широкого круга явлений и процессов, чем только ИН - начиная от ряда физических и химических закономерностей и заканчивая процессами самоорганизации и адаптации в сложных биологических и кибернетических системах.
Рассмотрим следующую модель, являющуюся обобщением практически всех рассматриваемых выше моделей в следующем смысле: мы не будем вводить предположений о характере, законах и т.д. взаимодействия элементов и структуре системы, считая, что существуют некоторые характеристики элементов (их рассогласования), определяющие рассогласование системы.
О. Рассмотрим систему, состоящую из n элементов. Рассогласование /-го элемента обозначим xt(f), i = 1, n. Без потери общности можно считать, что если система научается, то имеет место: xi(0) = 1, xi(t) 0 t 0, lim xi(t) = 0, i = 1, n.
t
Любая кривая такого типа может быть представлена в виде (9.1) x/(t) = i(t}, i = 1n .
где Х/(0) = 0, Xi(t) ® + ?, / = 1, n. Назовем условно скоростью
t
научения i-го элемента логарифмическую производную его рассогласования (относительную скорость - xf / xi), то есть величину
dXi (t)
dt
g(t)
(в каждом конкретном случае нужно четко представ-
лять себе - что является элементом моделируемой системы и каковы содержательные интерпретации скорости его научения).
Как правило, траектории реальных физических и биологических систем обладают достаточной гладкостью, поэтому в большинстве случаев соответствующая производная определена. Если Хі(-) - абсолютно непрерывные функции (с точностью до константы допускающие представление в виде интеграла от производной), то (9.1) примет вид
t _
(9.2) Xi(t) = exp { - Jgi (t)dt}, i = 1, п .
0
Г. Рассогласование системы в целом является некоторой функцией рассогласований элементов:
x(t) = F(Xi(t), X2(t) xn(t)).
Естественно предположить, что функция F(-) неотрицательна, монотонна по каждой переменной и обращается в нуль тогда и только тогда, когда обращаются в нуль рассогласования всех элементов. Например, F(-) может быть нормой в пространстве W п. Известно, что в конечномерных пространствах (в рассматриваемой модели размерность пространства определяется числом элементов научаемой системы, а оно всегда конечно) все нормы эквивалентны, то есть для любых двух норм Fj(-) и F2(-) найдутся такие константы а и Ь, что для любого x е W п будет выполнено:
(9.3) aF2(x) F(x) b F (x).
Пусть рассогласование F(-) - среднее геометрическое рассогласований элементов:
1/
с 1 п{- J - Ё gi (t)dt}.
* 77П xi(t)
(9.4) x(t)
exp
0 п i=1
i =1
Если выбрать в качестве рассогласования системы среднее арифметическое рассогласований элементов:
F(Xl(t), X2(t) ..., Xn(t)) = ЁI Xi (t) | ,
i =1
то при достаточно больших п среднее арифметическое совпадает (с точностью до мультипликативной константы) со средним геометрическим (корректное обоснование приведено в [60, 64]).
Таким образом, для того, чтобы (9.4) было в определенном в [60] смысле оценкой рассогласования системы (см. (9.3)), требуется, чтобы число элементов системы было велико.
Ф(В). Теперь воспользуемся гипотезой о стационарности характеристик элементов.

Более точно, будем считать, что скорости научения элементов - независимые случайные величины, имеющие произвольные стационарные распределения.
Тогда подынтегральное выражение в (9.3) асимптотически постоянно [64], то есть при больших n выполнено:
1 n
(9.5) -У уг(t) Const, t 0. n t =1
Обозначая эту константу (скорость научения) через у, из (9.4) и (9.5) получаем:
(9.6) x(t) ~ е-уt.
А. Таким образом, в рамках рассмотренной модели экспоненциальный вид зависимости рассогласования системы от времени является следствием стационарности внешних и внутренних параметров (условий функционирования), а также большого числа элементов системы.
Наличие большого числа элементов системы является существенным - кривые научения отдельных элементов могут быть далеко не экспоненциальными. Грубо говоря, чем больше число элементов системы и чем стационарней их характеристики, тем более точно (9.6) аппроксимирует кривую научения системы.
Следует отметить, что предлагаемая модель далеко не совершенна. Например, внимательный читатель может спросить: а почему мы использовали именно представление (9.1) для кривой научения отдельного элемента? (если предположить стационарность производных x{ (t), то получится линейная функция, не удовлетворяющая условию асимптотичности), что такое функция X(t) и почему именно распределение ее производных стационарно?

Аналогичные возражения может вызвать обоснованность предположений о свойствах функции F(-), независимости характеристик элементов и т.д.
Оправданием может служить следующее рассуждение. Пусть некоторая система характеризуется экспоненциальной КН со скоростью научения у, значение которой, фактически, определяет отличие одной КН (научаемой системы) от другой. Строя модель ИН, исследователь при рассмотрении взаимодействия элементов системы вынужден вводить те или иные предположения. Как свидетельствует проведенный выше анализ, существует целое множество предположений, приводящих к требуемому выводу о экспоненциальной динамике поведения системы.

Поэтому критерием сравнения моделей ИН (какая модель лучше) должны служить именно вводимые предположения. С этой точки зрения предлагаемая модель лучше рассмотренных выше (является более общей, то есть включает большинство известных моделей как частные случаи).

Процесс генерации моделей можно и нужно продолжать дальше. Тем не менее, при этом нужно четко представлять себе, что скорее всего отказаться полностью от предположений о стационарности и/или ограниченности тех или иных параметров системы и/или множественности составляющих ее элементов вряд ли удастся. -
Теперь покажем, что приведенная модель обобщает модели, рассмотренные в предыдущих разделах.
Большое число элементов обучаемой системы оказывается существенным в моделях: 4.2, 5.2, 5.3, 6.1, 6.7, 6.10, 7.2, 7.5, 8.5.
Стационарность характеристик элементов систем имеет место и играет ключевую роль:
- в моделях 4.1, 4.5, 5.1, 5.4, 6.5, 8.2, 8.3 постоянна логарифмическая производная рассогласования, то есть постоянен коэффициент пропорциональности между скоростью изменения рассогласования и ее текущим значением (понятно, что даже при n = 1 это предположение сразу приводит к экспоненциальному виду кривой рассогласования);
- в моделях 4.2, 7.3, 7.4 постоянны коэффициенты пропорциональности в выражениях для приращения вероятностей;
- в модели 5.2 вероятность распада не зависит от времени и числа распавшихся атомов;
- в модели 5.3 постоянна относительная ошибка каждого из регуляторов;
- в модели 5.5 вариация организации системы постоянна (равна нулю);
- в моделях 6.2, 6.3, 6.6 постоянно количество информации, усваиваемое, получаемое или перерабатываемое обучаемой системой в единицу времени;
- в модели 6.7 равны вероятности показа различных изображений;
- в модели 6.9 пропорция между переданной и полученной информацией не зависит от времени и количества накопленной информации;
- модель 6.10 (как и 5.2) очень близка к модели, рассмотренной в настоящем разделе;
- в модели 7.1 постоянна пропорция отрезков разбиения;
- в модели 7.2 рассогласования элементов системы распределены равномерно в каждый момент времени;
- в модели 8.4 ограниченность скорости изменения (липшице-вость) правых частей нормальной системы дифференциальных уравнений оказывается достаточной для асимптотичности траектории системы;
- в модели 8.5 невзаимодействие элементов или постоянство положения цели приводят к экспоненциальному виду кривой рассогласования.
В то же время, следует отметить, что при итеративном научении в случае нестационарных внутренних характеристик системы могут наблюдаться и многократно наблюдались в экспериментах неэкспоненциальные (логистические, с промежуточным плато и др. - см. второй раздел) кривые научения.
Таким образом, в приведенных выше моделях для получения вывода об экспоненциальности кривой научения делаются либо предположения о множественности и однородности элементов системы (см. также замечание о необходимости усреднения индивидуальных КН во втором разделе) и о стационарности некоторых характеристик элементов (множественность при слабой стационарности дает возможность произвести усреднение и получить сильную стационарность в среднем; интуитивно - небольшая нестационарность приводит к примерной экспоненциальности), либо более сильное предположение о стационарности.
Значит можно сделать следующий вывод: если число элементов научаемой системы достаточно велико, а ее характеристики и условия функционирования (внутренние и внешние) стационарны, то соответствующая кривая научения будет экспоненциальной. Более того, приведенная в настоящем разделе модель оказывается адекватной не только итеративному научению, но и процессам самоорганизации и адаптации в больших системах, удовлетворяющих предположениям стационарности.

Заключение

Таким образом, анализ математических моделей итеративного научения, проведенный в настоящей работе, позволяет сделать следующие выводы.
Моделирование итеративно научаемых систем является эффективным методом их исследования, предсказания специфики поведения реальных систем в различных условиях, а также совершенствования организации учебного процесса.
Результаты исследования математических моделей итеративного научения позволили выдвинуть следующий закон итеративного научения:
ЕСЛИ ЧИСЛО ЭЛЕМЕНТОВ НАУЧАЕМОЙ СИСТЕМЫ ДОСТАТОЧНО ВЕЛИКО И/ИЛИ ВНЕШНИЕ И ВНУТРЕННИЕ УСЛОВИЯ ЕЕ ФУНКЦИОНИРОВАНИЯ СТАЦИОНАРНЫ, ТО КРИВАЯ НАУЧЕНИЯ, СООТВЕТСТВУЮЩАЯ ЕГО РЕЗУЛЬТАТИВНЫМ ХАРАКТЕРИСТИКАМ, БУДЕТ
ПРИМЕРНО ЭКСПОНЕНЦИАЛЬНОЙ.
Одновременно можно сформулировать двойственное утверждение (выдвинуть объясняющую гипотезу):
ЕСЛИ КРИВАЯ НАУЧЕНИЯ, СООТВЕТСТВУЮЩАЯ ЕГО РЕЗУЛЬТАТИВНЫМ ХАРАКТЕРИСТИКАМ, ЯВЛЯЕТСЯ ЭКСПОНЕНЦИАЛЬНОЙ, ТО СКОРЕЕ ВСЕГО ВНЕШНИЕ И ВНУТРЕННИЕ УСЛОВИЯ ФУНКЦИОНИРОВАНИЯ НАУЧАЕМОЙ СИСТЕМЫ СТАЦИОНАРНЫ И/ИЛИ ЧИСЛО ЕЕ ЭЛЕМЕНТОВ ДОСТАТОЧНО ВЕЛИКО.
Сформулированные утверждения вполне согласованы с соответствующими экспериментальными закономерностями, физическими законами и результатами наблюдений.
В качестве перспективных направлений будущих исследований механизмов и закономерностей итеративного научения следует выделить: необходимость дальнейшего анализа различного рода моделей ИН и, в первую очередь, моделей, использующих обратный метод построения; исследование соответствия между гипотезами, лежащими в основе существующих и вновь создаваемых прямых моделей ИН и экспериментальными исследованиями ИН в живых системах; а также широкое применение результатов моделирования для выработки рекомендаций по выбору оптимальных форм и методов обучения.
Необходимо отметить, что многие из рассмотренных выше моделей описывают и отражают гораздо более широкий круг явлений и процессов, нежели только итеративное научение. Можно выдвинуть гипотезу, что замедленно-асимптотический характер изменения агрегированных параметров больших и сложных систем является общей закономерностью, проявляющейся при стационарных внешних и внутренних условиях не только при итеративном научении, но и в процессах адаптации, самоорганизации и др.

Литература

1 Адилов Г.Р., Опойцев В.И. Об асимптотическом агрегировании // Автоматика и Телемеханика.

1989. N 1. С. 131 - 140.
2 Акофф Р., Эмери Ф. О целеустремленных системах. М.: Сов. радио, 1974. - 272 с.
3 Александров Е.А. Основы теории эвристических решений. М.: Сов. радио, 1975. - 256 с.
4 Алексеев М.А., Залкинд М.С., Кушнарев В.М. Решение человеком задачи выбора при вероятностном подкреплении двигательных реакций / Биологические аспекты кибернетики. М.: Изд-во АН СССР, 1962.

С. 198 - 209.
5 Амосов Н.М. Моделирование сложных систем. Киев: Наукова думка, 1968. - 81 с.
6 Анохин П.К. Опережающее отражение действительности // Вопросы философии.

1962. N 7. С. 97 - 112.
7 Анохин П.К. Принципиальные вопросы общей теории функциональных систем // Принципы системной организации функций. М.: Наука, 1973.

С. 5 - 61.
8 Анохин П.К. Теория функциональной системы, как предпосылка к построению физиологической кибернетики / Биологические аспекты кибернетики. М.: Изд-во АН СССР, 1962.

С. 74 - 91.
9 Антомонов Ю.Г. Моделирование биологических систем.

Справочник. Киев: Наукова думка, 1977. - 259 с.
10 Антомонов Ю.Г. Организация и оптимальность / Моделирование в биологии и медицине.

Киев: Наукова думка, 1968. С. 163 -182.
11 Антомонов Ю.Г. Принципы нейродинамики. Киев: Наукова думка, 1974. - 199 с.
12 Аптер М. Кибернетика и развитие. М.: Мир, 1970. - 215 с.
13 Аткинсон Р., Бауэр Г., Кротерс Э. Введение в математическую теорию обучения. М.: Мир, 1969. - 468 с.
14 Аткинсон Р. Человеческая память и процесс обучения. М.: Прогресс, 1980. - 528 с.
15 Аттли О.М. Машины условной вероятности и условные рефлексы / Сб.

Автоматы. М.: ИЛ, 1956.

С. 326 - 351.
16 Бернштейн Н.А. Очерки по физиологии движений и физиологии активности. М.: Медицина, 1966. - 347 с.
17 Бернштейн Н.А. Пути и задачи физиологии активности // Вопросы философии.

1961. N 6. С. 77 - 92.
18 Бернштейн Н.А. Пути развития физиологии и связанные с ними задачи кибернетики / Биологические аспекты кибернетики. М.: Изд-во АН СССР, 1962.

С. 52 - 65.
19 Бир Ст. Кибернетика и управление производством. М.: Наука, 1965. - 391 с.
20 Братко А.А., Кочергин А.Н. Информация и психика. Новосибирск: Наука, 1977. - 198 с.
21 Бриллюэн Л. Наука и теория информации. М.: Гос. изд-во физ.-мат. лит., 1960. - 392 с.
22 Бриллюэн Л. Научная неопределенность и информация. М.: Мир, 1966. - 271 с.
23 Буш Р., Мостеллер Ф. Стохастические модели обучаемости. М.: Гос. изд-во физ.-мат. лит., 1962. - 483 с.
24 Варшавский В.И. Коллективное поведение автоматов. М.: Наука, 1973. - 408 с.
25 Варшавский В.И., Воронцова И.П. О поведении стохастических автоматов с переменной структурой // Автоматика и Телемеханика. 1963. том 24.

N 3. С. 353 - 369.
26 Варшавский В.И., Воронцова И.П., Цетлин М.Л. Обучение стохастических автоматов / В сб. Биологические аспекты кибернетики, Изд-во АН СССР, 1962.

С. 192 - 197.
27 Венда В.Ф. Системы гибридного интеллекта: эволюция, психология, информатика. М.: Машиностроение, 1990. - 448 с.
28 Винер Н. Кибернетика или управление и связь в животном и машине. М.: Наука, 1983. - 338 с.
29 Винер Н. Кибернетика и общество. М.: Изд-во иностр. лит., 1958. - 200 с.
30 Вильсон А.Дж. Энтропийные методы моделирования сложных систем. М.: Наука, 1978. - 248 с.
31 Вудвортс Р. Экспериментальная психология. М.: Изд-во иностр. лит., 1950. - 800 с.
32 Гельфанд И.М., Цетлин М.Л. Принцип нелокального поиска в задачах автоматической оптимизации // ДАН СССР.

1961. Том 137.

N 2. С. 295 - 298.
33 Глушков В.М. Введение в кибернетику. Киев: Изд-во Академии наук УССР, 1964. - 323 с.
34 Горбань А.Н. Обучение нейронных сетей. М.: Параграф, 1990. -157 с.
35 Дейч С. Модели нервной системы. М.: Мир, 1970. - 325 с.
36 Джордж Ф. Мозг как вычислительная машина. М.: Изд-во иностр. лит., 1963. - 528 с.
37 Дружинин В.В., Контров Д.С. Проблемы системологии (проблемы теории сложных систем). М.: Сов. радио, 1976. - 295 с.
38 Емельянов - Ярославский Л.Б. Интеллектуальная квази-биологическая система. М.: Наука, 1990. - 112 с.
39 Жиглявский А.А., Жилинскас А.Г. Методы поиска глобального экстремума. М.: Наука, 1991. - 248 с.
40 Жуков Н.И. Информация. Минск: Наука и техника, 1971. -276 с.
41 Зингерман А.М., Меницкий Д.Н., Усов В.В. Информация и функциональные системы / Принципы системной организации функций. М.: Наука, 1973.

С. 86 - 91.
42 Ительсон Л.Б. Математические и кибернетические методы в педагогике. М.: Просвещение, 1964. - 248 с.
43 Кадыров Х.К., Антомонов Ю.Г. Синтез математических моделей биологических и медицинских систем. Киев: Наукова думка, 1974. - 222 с.
44 Касти Дж. Большие системы: связность, сложность, катастрофы. М.: Мир, 1982. - 216 с.
45 Клаус Г. Кибернетика и общество. М.: Прогресс, 1967. - 431 с.
46 Коган А.Б., Наумов Н.П., Режабек В.Г., Чораян О.Г. Биологическая кибернетика. М.: Высшая школа, 1972. - 384 с.
47 Козелецкий Ю. Психологическая теория решений. М.: Прогресс, 1979. - 504 с.
48 Крылов В.Ю., Морозов Ю.И. Кибернетические модели и психология. М.: Наука, 1984. - 174 с.
49 Крылов В.Ю., Цетлин М.Л. Об играх автоматов // Автоматика и Телемеханика. 1963. том 24.

N 7. С. 910 - 921.
50 Линдсей П., Норман Д. Переработка информации у человека (введение в психологию). М.: Мир, 1974. - 550 с.
51 Ляпунов А.А. Об управляющих системах живой природы и общем понимании жизненных процессов.

М.: Энергия, 1962.
52 Малишевский А.В. Модели совместного функционирования многих целенаправленных элементов // Автоматика и Телемеханика.

1972. ч. I - N 11. С. 92 - 110, ч. II. - N 12.

С. 108 - 128.
53 Малишевский А.В., Тенисберг Ю.Д. Один класс игр, связанный с моделями коллективного поведения // Автоматика и Телемеханика. 1969.

N 11. С. 128 - 137.
54 Меницкий Д.Н. Информация и проблемы высшей нервной деятельности. Л.: Медиздат, 1974. - 230 с.
55 Миллер Д., Галантер Е., Прибрам К. Планы и структура поведения. М.: Прогресс, 1964. - 236 с.
56 Новиков А.М. Анализ количественных закономерностей процесса упражнения.

Методические рекомендации. М.: Высшая школа, 1976. - 22 с.
57 Новиков А.М. Процесс и методы формирования трудовых умений: профпедагогика. М.: Высшая школа, 1986. - 288 с.
58 Новиков М.А. Коммуникационные структуры и эффективность групповой деятельности операторов // Вопросы психологии. 1970.

N 4. С. 132 - 135.
59 Нурминский И.И., Гладышева Н.К. Статистические закономерности формирования знаний и умений учащихся. М.: Педагогика, 1991. - 224 с.
60 Опойцев В.И. Задачи и проблемы асимптотического агрегирования // Автоматика и Телемеханика.

1991. N 8. С. 133 - 144.
61 Опойцев В.И. Динамика коллективного поведения. ч.І - Гомогенные системы // Автоматика и Телемеханика. 1974.

N 4. С. 157 -168.
62 Опойцев В.И. Динамика коллективного поведения. ч.ІІ - Системы с ограниченным межэлементным взаимодействием // Автоматика и Телемеханика.

1974. N 6. С. 133 - 144.
63 Опойцев В.И. Динамика коллективного поведения. ч.ІІІ // Автоматика и Телемеханика.

1975. N 1. - С. 124 - 138.
64 Опойцев В.И. Нелинейный закон больших чисел // Автоматика и Телемеханика.

1994. N 4. С. 65 - 75.
65 Опойцев В.И. Равновесие и устойчивость в моделях коллективного поведения. М.: Наука, 1977. - 245 с.
66 Опойцев В.И. Устойчивость систем большой размерности // Автоматика и Телемеханика.

1986. N 6. С. 43 - 49.
67 Полтырева Т.Е. Условнорефлекторное поведение собаки в вероятностной среде / Некоторые проблемы биологической кибернетики.

Л.: Наука, 1972. С. 83 - 89.
68 Поспелов Д.А. Вероятностные автоматы. М.: Энергия, 1970. -87 с.
69 Присняков В.Ф., Приснякова Л.М. Математическое моделирование переработки информации оператором человеко-машинных систем. М: Машиностроение, 1990. - 248 с.
70 Присняков В.Ф., Приснякова Л.М. Модель процесса удержания информации в памяти человека // Психологический журнал.

1984. том 5. N 4. С. 29 - 36.
71 Раппопорт А. Экспериментальное исследование параметров самоорганизации в группах из трех испытуемых / Принципы самоорганизации.М.: Мир, 1966. С. 21 - 47.
72 Розенблатт Ф. Принципы нейродинамики. Перцептроны и теория механизмов мозга. М.: Мир, 1965. - 480 с.
73 Романов Н.А. О возможностях контакта между теорией вероятностей и учением академика И.П. Павлова об условных рефлексах // ДАН СССР. Математика.

1935. том 1. N 4. С. 193 - 199.
74 Рублев Ю.В., Востров Г.Н. Математические основы логической структуры курса // Вестник высшей школы.

1970. N 9. С. 27 - 31.
75 Экспериментальная психология. Под ред С.С. Стивенса, М.: ИЛ, т. I, 1960. т. II, 1963. (в т.ч. - Спенс К.У.

Теоретический анализ процесса научения. С. 224 - 273.).
76 Трапезников В. А. Автоматическое управление и экономика // Автоматика и Телемеханика. 1966.

N 1. С. 5 - 22.
77 Трапезников В.А. Человек в системе управления // Автоматика и Телемеханика. 1972.

N 2. С. 4 - 18.
78 Трухаев Р.И. Модели принятия решений в условиях неопределенности. М.: Наука, 1981. - 258 с.
79 Умрюхин Е.А. Обучение в живых системах / Принципы системной организации функций. М.: Наука, 1973.

С. 202 - 206.
80 Уолтер Г. Живой мозг. М.: Мир, 1970. - 300 с.
81 Урсул А.Д. Природа информации. М.: Политиздат, 1968. -288 с.
82 Ферстер Г. О самоорганизующихся системах и их окружении / Самоорганизующиеся системы. М.: Мир, 1964.

С. 113 - 139.
83 Ховленд К. Научение и сохранение заученного у человека / Экспериментальная психология. Под ред.

С.С. Стивенса, М.: ИЛ, том II, 1963.

С. 124 - 223.
84 Цетлин М.Л. Исследования по теории автоматов и моделированию биологических систем. М.: Наука, 1969. - 316 с.
85 Цетлин М.Л. О поведении конечных автоматов в случайных средах // Автоматика и Телемеханика.

1961. том 22. N 10.

С. 1345 -1354.
86 Цыпкин Я.З. Адаптация и обучение в автоматических системах. М.: Наука, 1968. - 399 с.
87 Цыпкин Я.З. Основы теории обучающихся систем. М.: Наука, 1970. - 252 с.
88 Шеннон К. Работы по теории информации и кибернетике. М.: Изд-во иностр. лит., 1963. - 829 с.
89 Шибанов Г.П. Количественная оценка деятельности человека в системах человек-техника. М.: Машиностроение, 1983. - 263 с.
90 Шленский О.Ф., Бодэ Б.В. К математическому выражению накопления информации и ее забывания // Вопросы психологии. 1967.

N 4. С. 180 - 182.
91 Штейнбух К. Автомат и человек. М.: Сов. радио, 1967. - 494 с.
92 Эстес В.К. Статистические модели способности человека-наблюдателя вспоминать и опознавать возбуждающие образы / Самоорганизующиеся системы. М.: Мир, 1964.

С. 50 - 64.
93 Эшби У.Р. Введение в кибернетику. М.: Изд-во иностр. лит., 1959. - 432 с.
94 Эшби У.Р. Конструкция мозга.

Происхождение адаптивного поведения. М.: Мир, 1964. - 411 с.
95 Яглом А.М., Яглом И.М. Вероятность и информация. М.: Наука, 1973. - 511 с.
96 Baba N. A new approach for finding the global minimum of error function of neural networks // Neural Networks. 1989. V.2.

P. 367-373.
97 Baldi P., Hornic K. Neural network and principal component analysis: learning from examples without local minima // Neural Networks. 1989.

V. 2. P. 53 - 58.
98 Bryan W.L., Harter N. Studies on the telegrafic language. The acquisition of a hierarchy of habits // Psychol. Rev.

1899. V. 6. P. 345 -375.
99 Estes W.K. The statistical approach to learning theory / Psychology: a study of science. Ed. by Koch S. New York: McGraw Hill Book Company Inc., 1951.

P. 380 - 491.
100 Grant D. Information theory and the discrimination of sequences in stimulus events / Current trends in information theory. Pittsburgh: Univ. of Pittsburgh Press, 1953.

P. 18 - 46.
101 Gulliksen H. A rational equation of the learning curve based on the Thornike's law of effect // J. Gen. Psychol., 1934. V. 11.

P. 395 - 434.
102 Guthrie E.R. The psychology of learning.

New York and London: Harper and Broth. Pub., 1935. - 258 p.
103 Hecht-Hidsen R. Neurocomputing. Addiron-Wesley Publishing Company Inc., 1989. - 222 p.
104 Hull C.L. Behavior postulates and corollaries // Psychol. Rev.

1950. V. 57.

P. 173 - 180.
105 Hull C.L. Principles of behavior and introduction to behavior theory. New York: D. Appleton century company, 1943. - 422 p.
106 Jones M.R. From probability learning to sequential processing: a critical review // Psychological Bulletin, 1971.

V. 76. N 3. P. 153 - 185.
107 Klaus K. Time to fired up // Neural Networks. 1989.

August. P. 217 - 224.
108 Linsker R. Self-organization in a perceptual network // Computer. 1988.

March. P. 105 - 117.
109 Meehl P.E., MacCorquodale K. Some methodological comments concerning expectancy theory // Psychol. Rev. 1951.

V. 58. P. 230 -233.
110 Miller G. The magical number seven plus or minus two: some limits on capacity for processing information // Psychol. Rev.

1956. V. 63.

P. 81 - 92.
111 Peterson G. Experiments in ball tossing: the significance of learning curves // J. Exp. Psychol. 1917.

V. 2. P. 178 - 224.
112 Russ R. Implementing a neural network in C / MicroCorncopia. 1990.

N 51. P. 16 - 25.
113 Stenberg S. Stochastic learning theory / Handbook on mathematical psychology, V. II, New York: J. Wiley and Sons Inc., 1963. P. 1 - 120.
114 Thurstone L.L. The learning curve equation // Psychol. Monogr. 1919.

V. 26. N 3.
115 Tolman E.C. Theories of learning / Comparative Psychology.

Ed. Moss F.A.

New York: Prentice Hall, 1934.



Содержание раздела