Проверяемый текст
Новиков Д.А., Иващенко А.А. Модели и методы организационного управления инновационным развитием фирмы. – М.: КомКнига, 2006
[стр. 82]

82 Полученный в [91] результат остается в силе и для рассматриваемой модели: при использовании центром системы стимулирования (2.3.7) у РДС.
Более того, если > 0, i е N, то у* единственное РДС.
Ь Вектор оптимальных реализуемых действий агентов у*, фигурирующий в качестве параметра в выражении (2.3.7), определяется в результате решения следующей задачи оптимального согласованного планирования: У = arg max {Н(у) £е,(.у)}> (2.3.8) уеЛ ieN а эффективность системы стимулирования (2.3.7), (2.3.8) равна следующей величине: К* Н(у*) —^ c t(y*) —5.
' ieN I I Утверждение 3.
При п >2, к >2 и отсутствии агрегирования, система стимулирования (2.3.7), (2.3.8) 8-оптимальна.
Содержательно, при использовании системы стимулирования (2.3.7) центр использует следующий принцип декомпозиции: он предлагает /-му агенту «выбирай действие, совпадающее с планом, а я компенсирую тебе затраты, независимо от того какие действия выбрали остальные агенты, если же ты выберешь любое другое действие, то вознаграждение будет равно нулю».
Используя такую стратегию, центр декомпозирует игру агентов.
i Таким образом, в настоящем подразделе посредством обобщения результатов, полученных в [91] решена задача синтеза оптимальной многокритериальной системы стимулирования в многоэлементных ОС без агрегирования информации (утверждение 3).
Перейдем к описанию случая агрегирования информации.
»
2.4.
Стимулирование за коллективные результаты Пусть в рамках модели, рассмотренной в предыдущем подразделе, имеет место агрегирование информации, то.есть результат деятельности z
в В ОС, / состоящей из п агентов, является функцией их действий: z, = Qj(y), i е N.
Интересы и предпочтения участников ОС
—центра и агентов —выражены их целе
[стр. 235]

235 Если стимулирование каждого агента зависит от действий всех агентов (рассматриваемый в настоящем подразделе случай коллективного стимулирования) и затраты не сепарабельны (то есть затраты каждого агента зависят в общем случае от действий всех агентов, что отражает взаимосвязь и взаимозависимость агентов), то множества равновесий Нэша [83] EN(s) Í A и РДС yd Î A имеют вид: EN(s) = {yN Î A " i Î N " yi Î Ai si(yN ) – ci( N y ) ³ si(yi, N iy) – ci(yi, N iy)}; Действие diy Î Ai – доминантная стратегия i-го агента, тогда и только тогда, когда " yi Î Ai, " y-i Î A-i si( diy , y-i) – ci( diy , y-i) ³ si(yi, y-i) – ci(yi, y-i).
Если при заданной системе стимулирования у всех агентов имеется доминантная стратегия, то говорят, что данная система стимулирования реализует соответствующий вектор действий как РДС.
Фиксируем произвольный вектор действий агентов y* Î A и рассмотрим следующую систему стимулирования: (7) si(y* , y) = î í ì ¹ =+yy yyyyc ii iiiiii * ** ,0 ,),( d , di ³ 0, i Î N.
Полученный в [171] результат остается в силе и для рассматриваемой модели: при использовании центром системы стимулирования (7) y* – РДС.
Более того, если di > 0, i Î N, то y* – единственное РДС.
Вектор оптимальных реализуемых действий агентов
y* , фигурирующий в качестве параметра в выражении (7), определяется в результате решения следующей задачи оптимального согласованного планирования: (8) y* = arg AyÎ max {H(y) – åÎNi i yc )( }, а эффективность системы стимулирования (7), (8) равна следующей величине: K* = H(y* ) – åÎNi i yc )( * – d.


[стр.,236]

236 Утверждение 5.3.
При n ³ 2, k ³ 2 и отсутствии агрегирования, система стимулирования (7), (8) d-оптимальна.
Таким образом, в настоящем подразделе посредством обобщения результатов, полученных в
[171], решена задача синтеза оптимальной многокритериальной системы стимулирования в многоэлементных ОС без агрегирования информации (утверждение 5.3).
Перейдем к описанию случая агрегирования информации.

5.2.3.
Стимулирование за коллективные результаты Пусть в рамках модели, рассмотренной в предыдущем подразделе, имеет место агрегирование информации, то есть результат деятельности z
Î B ОС, состоящей из n агентов, является функцией их действий: zi = Qi(y), i Î N.
Интересы и предпочтения участников ОС
– центра и агентов – выражены их целевыми функциями.
Целевая функция центра представляет собой разность между его доходом h(z) и суммарным вознаграждением, выплачиваемым агентам, то есть (1) F(s(×), z) = h(z) – åÎNi ii z )(s , где si(zi) – стимулирование i-го агента, s(z) = (s1(z1), s2(z2), …, sn(zn)).
Целевая функция i-го агента представляет собой разность между стимулированием, получаемым им от центра, и затратами ci(y), то есть: (2) fi(si(×), y) = si(zi) – ci(y), i Î N.
Примем следующий порядок функционирования ОС.
Центру и агентам на момент принятия решений о выбираемых стратегиях (соответственно – функциях стимулирования и действиях) известны целевые функции и допустимые множества всех участников ОС, а также функции агрегирования.
Центр, обладая правом первого хода, выбирает функции стимулирования и сообщает их агентам, после чего агенты при известных функциях стимулирования выбирают действия, максимизирующие их целевые функции.
Рассмотрим случай, когда центр наблюдает только результаты деятельности агентов, от которых зависит его доход h(z), но не знает и не может восстановить индивидуальных действий агентов

[Back]